Apresentação
📋 Plano de Preparação — DEUS.ai
Sobre a DEUS — conhece antes da entrevista
DEUS = Data | Engineering | User Experience | Strategy
Missão: AI que serve pessoas — inovação ética e com impacto. Nome inspirado em deus ex machina: AI que intervém para apoiar, resolver e servir.
Escritórios: Amsterdam, Porto, A Coruña — equipa multicultural.
Valores: "A tecnologia deve servir as pessoas"; "no assholes" policy; diversidade e inclusão.
Frase para usar: O que me atraiu na DEUS é o foco em AI que serve pessoas — não só inovador, mas ético e com impacto.
⚠️ Entrevista em Inglês
"Inglês escrito e falado excelente é o requisito central" — a entrevista pode ser em inglês.
- Prepara o pitch e os 3 projetos em inglês
- Tudo está em pt-PT para estudo; se a entrevista for em inglês, prepara também as respostas em inglês
- Pratica dizer em voz alta: RAG, agentes, hallucinations, fine-tuning vs RAG
Prioridades por probabilidade de sair
Para esta vaga, é mais provável perguntarem RAG, agentes, arquitetura, produção e integração com dados do que entrarem fundo em PCA, CNN ou logistic regression.
🔴 Prioridade A — quase certo que pode sair
- Pitch — Preparação, apresentação, posicionamento
- Projetos Pessoais — 3 cases prontos (chatbot imobiliário, recomendação com agentes, cão)
- RAG — arquitetura, chunking, hybrid search, reranking, tipos (naive, hybrid, parent-child, hierarchical, agentic)
- Fundamentos de LLM — embeddings, hallucinations, temperature, pipeline
- AI Agents — ReAct, LangGraph, tool calling, multi-agent
- System Design — escalar, custos, RAG em produção
- Costs / Scaling / Hallucinations — reduzir custos, evitar hallucinations
🟡 Prioridade B — pode sair
- Vector DBs — cosine similarity, HNSW, ANN
- FastAPI / APIs — streaming, deploy de modelos
- Python async — GIL, threading vs multiprocessing
- Monitoring / MLOps — caching, versioning, drift
- Observability — Langfuse para LLMs (tracing, tokens, custo)
- Integração com dados — pipelines, ingestão para RAG
- NumPy, Pandas, PySpark — processamento de dados, ETL, pipelines para RAG
- Stakeholder management — extração de requisitos, pilotar projetos, balancear prioridades
- CI/CD, Terraform, Helm — infraestrutura como código, pipelines (mencionados na vaga)
- Agile — Scrum, Kanban, sprints, retrospectivas (mencionado na vaga)
- Coding / Live Coding — chunking, retry, parse JSON (exercícios práticos)
🟢 Prioridade C — só se houver tempo
- ML clássico — bias/variance, overfitting, métricas (retorno menor)
- Deep Learning genérico — CNN, RNN, backprop (foca em transformers)
- Fine-tuning & Training — prompt engineering a full fine-tuning, LoRA, RLHF, RAG
- Cloud genérico — serviços básicos, menos detalhe
- Computer Vision — se tens experiência (vaga: NLP ou CV)
Estes tópicos foram encurtados, não apagados — o conteúdo está condensado para estudo rápido.
Ordem de estudo sugerida
- Guia (este) → Preparação (pitch) → Projetos Pessoais (3 cases) → RAG → Tipos de RAG → LLMs → AI Agents
- System Design + Arquitetura RAG + Agents
- Vector DBs → APIs → Python async → Coding → NumPy/Pandas/PySpark → MLOps → Observability & Cloud GenAI
- Data Engineering (integração)
- ML Fundamentals, Deep Learning, Fine-tuning & Training, Cloud — só se sobrar tempo
- Simulação — prática final
Versão de estudo vs versão falada
Algumas perguntas têm dois campos:
- solução — versão técnica para estudo (fórmulas, detalhes)
- spoken — versão natural para dizer em voz alta na entrevista
Em entrevista, usa a versão spoken; em estudo, consulta a solução.
✅ Checklist antes da entrevista
- Pitch e projetos preparados em inglês (entrevista pode ser em EN)
- Pitch de apresentação decorado
- 3 cases de projetos decorados (imobiliário, recomendação, cão)
- Curso de AI: versão forte decorada
- 3 frases que impressionam prontas
- Posicionamento: AI Systems Engineer (não ML engineer)
- RAG: explicar em 2 frases
- Hallucinations: causas + mitigação
- Fine-tuning vs RAG: diferença clara
- Design RAG para milhões de docs: arquitetura
- Respostas senior: curtas, estruturadas
- 3-4 perguntas para fazer ao entrevistador
- Exemplo de stakeholder management / pilotar projeto (STAR)
- Saber falar de Agile, CI/CD, Terraform se perguntarem
- Praticar os 3 coding challenges (chunking, retry, parse JSON)
10 erros que fazem reprovar
- Falar só de modelos — querem sistemas, pipelines, arquitetura
- Não falar de produção — deployment, monitorização, escalabilidade
- Ignorar custo — caching, model routing, otimização de prompts
- Não falar de dados — qualidade de dados, pipelines, ingestão
- Ignorar segurança — prompt injection, guardrails
- Não saber explicar embeddings — obrigatório em GenAI
- Confundir RAG com fine-tuning — RAG=conhecimento; Fine-tuning=comportamento
- Não falar de avaliação — accuracy, groundedness, relevância
- Falar demasiado teórico — exemplos reais
- Não fazer perguntas — separa medianos de bons
Perguntas que TU deves fazer (escolhe 3-4)
- Que tipo de arquiteturas de AI estão a construir atualmente?
- Os vossos sistemas são maioritariamente baseados em RAG ou também usam fine-tuning?
- Quais os maiores desafios ao colocar sistemas LLM em produção?
- Como gerem a ingestão de conhecimento para os vossos sistemas de AI?
- Como avaliam a performance dos vossos sistemas de AI?
- Que tipo de sistemas de AI está a equipa a construir com o Diogo?
- Como é o stack de AI atual?
- Como trabalham com stakeholders — desde requirements até deployment?
- Usam Agile? Como são os sprints?
Bonus — Snowflake (se tiveres experiência)
A vaga menciona Snowflake como bonus: Streams & Tasks, Snowpipe, data sharing, governance. Se conheces: Snowpipe = ingestão contínua; Streams = CDC; Tasks = agendamento. Data sharing para partilhar dados entre contas.
Técnicas de estudo eficaz
- Recuperação ativa — em vez de reler, tenta responder às perguntas sem olhar. Verifica depois.
- Repetição espaçada — revisita os tópicos A após 1 dia, 3 dias e 1 semana.
- Técnica de Feynman — explica RAG ou agentes em voz alta como se ensinasses alguém.
- Prática falada — usa o campo spoken das perguntas; diz em voz alta antes de ver a solução.
Sinais de que estás pronto
- Consegues explicar RAG em 30 segundos sem hesitar
- Sabes a diferença entre os 6 tipos de RAG (naive, hybrid, reranking, parent-child, hierarchical, agentic)
- Consegues desenhar um sistema RAG + agentes num whiteboard
- Tens 3 projetos com estrutura problema → arquitetura → desafios → resultado
- Sabes responder "Como reduzir custos?" e "Como evitar hallucinations?" de forma concisa
- Implementas chunking ou retry com backoff sem olhar
Estratégia quando não sabes
- Não inventes — "Não trabalhei diretamente com X, mas entendo que..."
- Redireciona — "A minha experiência é mais em Y, que é relacionado..."
- Mostra raciocínio — "Se tivesse de desenhar, começaria por..."
- Pergunta — "É algo que usam em produção? Gostava de saber mais."
Recursos para aprofundar
- RAG: LlamaIndex docs, LangChain RAG tutorial
- Agents: LangGraph docs, ReAct paper
- Produção: Langfuse blog, scale AI engineering posts
- Design de sistemas: ByteByteGo, System Design Interview (addendum GenAI)
Zona de prática
Sem perguntas. Clica em Editar para adicionar.
Desafios de código
Exemplo de notebook (.ipynb)
Desafio em formato Jupyter. O código executa no DietPi em tempo real com output em streaming.