← Voltar a AI Engineer — DEUS.ai

🟡 B — Perguntas Comportamentais

AI Engineer — DEUS.ai

Apresentação

🎤 Perguntas Comportamentais — First 90 days, Failure, Cost

Perguntas típicas em entrevistas sénior. Prepara respostas STAR.


First 90 days

O que querem ouvir: Plano concreto, humildade (aprender primeiro), impacto gradual.

Estrutura:

  • Semanas 1-2: Conhecer stack, codebase, equipa, stakeholders
  • Semanas 3-4: Shadow em deploys, identificar pain points
  • Mês 2: Primeira contribuição (eval, observability, doc)
  • Mês 3: Own uma feature end-to-end

Frase: I'd start by understanding before changing. Then I'd look for quick wins in eval or observability — areas that compound over time.


Failure / Incident (STAR)

O que querem ouvir: Que assumes responsabilidade, debugaste, implementaste mitigação.

Estrutura STAR:

  • S: Contexto — sistema em produção
  • T: O que falhou — respostas erradas, downtime, custo spike
  • A: O que fizeste — debug (retrieval? chunking? contexto?), eval, alertas, rollback
  • R: Resultado — menos incidentes, deteção mais rápida

Frase: We had wrong answers in production. I traced it to retrieval quality — we improved chunking and added automated eval. Now we catch regressions before users do.


Cost Estimation

O que querem ouvir: Sabes decompor o custo, consideras cache, tens números de referência.

Breakdown típico para RAG:

  1. Embeddings — 1M queries × tokens/query × $/1K (ex: $0.0001/1K)
  2. LLM — input + output tokens × $/1K (GPT-4o-mini ~$0.15/$0.60 per 1M)
  3. Cache hit rate — 20-40% hit reduz chamadas LLM
  4. Vector DB — por documento ou por query
  5. Infra — compute, rede

Frase: I'd break it down: embeddings per query, LLM cost per token, then apply cache hit rate. For 1M queries with 30% cache, you're looking at roughly X LLM calls.

Zona de prática

Sem perguntas. Clica em Editar para adicionar.