Apresentação
🎤 Perguntas Comportamentais — First 90 days, Failure, Cost
Perguntas típicas em entrevistas sénior. Prepara respostas STAR.
First 90 days
O que querem ouvir: Plano concreto, humildade (aprender primeiro), impacto gradual.
Estrutura:
- Semanas 1-2: Conhecer stack, codebase, equipa, stakeholders
- Semanas 3-4: Shadow em deploys, identificar pain points
- Mês 2: Primeira contribuição (eval, observability, doc)
- Mês 3: Own uma feature end-to-end
Frase: I'd start by understanding before changing. Then I'd look for quick wins in eval or observability — areas that compound over time.
Failure / Incident (STAR)
O que querem ouvir: Que assumes responsabilidade, debugaste, implementaste mitigação.
Estrutura STAR:
- S: Contexto — sistema em produção
- T: O que falhou — respostas erradas, downtime, custo spike
- A: O que fizeste — debug (retrieval? chunking? contexto?), eval, alertas, rollback
- R: Resultado — menos incidentes, deteção mais rápida
Frase: We had wrong answers in production. I traced it to retrieval quality — we improved chunking and added automated eval. Now we catch regressions before users do.
Cost Estimation
O que querem ouvir: Sabes decompor o custo, consideras cache, tens números de referência.
Breakdown típico para RAG:
- Embeddings — 1M queries × tokens/query × $/1K (ex: $0.0001/1K)
- LLM — input + output tokens × $/1K (GPT-4o-mini ~$0.15/$0.60 per 1M)
- Cache hit rate — 20-40% hit reduz chamadas LLM
- Vector DB — por documento ou por query
- Infra — compute, rede
Frase: I'd break it down: embeddings per query, LLM cost per token, then apply cache hit rate. For 1M queries with 30% cache, you're looking at roughly X LLM calls.
Zona de prática
Sem perguntas. Clica em Editar para adicionar.