Apresentação
🎤 Simulação de Entrevista Técnica — 45 min
⏱️ 0–5 min — Introdução
Pergunta: Podes apresentar-te brevemente e falar dos sistemas de AI em que trabalhaste?
Avaliam: clareza, experiência prática, capacidade de explicar sistemas
Resposta forte:
Sou Data & AI Engineer com experiência em construir plataformas de dados e sistemas orientados a AI.
O meu trabalho situa-se na interseção de data engineering, serviços de backend e AI generativa. Trabalhei principalmente com Python, construindo pipelines de dados, APIs e mais recentemente sistemas baseados em LLMs como pipelines RAG e workflows de agentes.
Gosto de desenhar arquiteturas de AI de ponta a ponta — desde pipelines de ingestão e bases de dados vetoriais até camadas de orquestração e APIs em produção.
⏱️ 5–15 min — Experiência técnica
Pergunta: Podes descrever um sistema de AI que desenhaste ou em que trabalhaste?
Querem ouvir: arquitetura, decisões técnicas, impacto
Estrutura: 1) problema 2) arquitetura 3) tecnologias 4) resultados
Exemplo: Um dos sistemas em que trabalhei foi um assistente de AI baseado em retrieval para documentação interna. Construímos um pipeline de ingestão que processava documentos, fazia chunking e gerava embeddings armazenados numa base de dados vetorial. Quando os utilizadores faziam perguntas, o sistema fazia retrieval semântico e injetava o contexto relevante no prompt antes de gerar a resposta com um LLM. O sistema foi colocado em produção atrás de um serviço FastAPI e incluía caching e monitorização para controlar latência e uso de tokens.
⏱️ 15–25 min — LLM / GenAI deep dive
RAG: Duas fases — ingestão (documentos → chunks → embeddings → vector DB) e retrieval (pergunta → embedding → top-k → contexto no prompt → LLM). Bónus: reranking, hybrid search.
Limitações: Hallucinations, janela de contexto, custo, latência. RAG e ferramentas fundamentam as respostas.
Fine-tuning vs RAG: Fine-tuning = alterar comportamento/estilo. RAG = conhecimento externo que muda frequentemente.
⏱️ 25–35 min — System Design
Pergunta: Como desenharias um assistente de AI para dados internos da empresa?
Arquitetura: Utilizador → API Gateway → Backend → Retriever → Vector DB → LLM. Adicionar: caching, monitorização, rate limiting.
Escalabilidade: Processamento assíncrono, caching, load balancers, vector DB fragmentado.
⏱️ 35–40 min — Produção / MLOps
Monitorização: Infraestrutura (latência, throughput, erros) + AI (uso de tokens, qualidade da resposta, feedback dos utilizadores, hallucinations).
Reduzir custos: Caching, retrieval para reduzir tamanho do prompt, batching, routing para modelos mais pequenos.
⏱️ 40–45 min — Perguntas finais (brilha aqui)
- Que tipo de sistemas de AI está a equipa a construir atualmente?
- Quanto do trabalho é focado em sistemas LLM versus ML tradicional?
- Como é o stack de AI atual?
🎯 Frases que impressionam
-
A maior complexidade em sistemas de AI está nos pipelines de dados e orquestração, não no modelo em si.
-
Costumo pensar em arquiteturas de AI em termos de camadas de ingestão, retrieval e geração.
-
Os LLMs são mais poderosos quando integrados com ferramentas externas e fontes de conhecimento.
💡 Última dica
Como o Diogo já falou bem de ti, entras com vantagem. Mostra: pensamento de arquitetura, experiência prática, capacidade de construir sistemas — não apenas modelos.
Gestão de tempo na entrevista
- Não te apresses — pausa 2-3 segundos antes de responder. Mostra que pensas.
- Se a pergunta for longa — repete ou resume: "Se entendi bem, queres saber..."
- Se não ouviste — pede para repetir. Melhor que responder ao que não percebeste.
Red flags a evitar
- Falar mal de empregadores anteriores
- Dizer "não sei" sem tentar raciocinar
- Responder com monólogo de 5 minutos
- Não fazer perguntas no fim
- Chegar sem ter pesquisado a empresa
Última verificação antes de entrar
- Câmara e microfone a funcionar
- Fundo neutro, boa luz
- Água à mão
- Notas de referência (não ler, só consultar se necessário)
- 3-4 perguntas escritas para o fim
Zona de prática
Sem perguntas. Clica em Editar para adicionar.