← Voltar a AI Engineer — DEUS.ai

📋 Guia de Estudo — Começa aqui

AI Engineer — DEUS.ai

Apresentação

📋 Plano de Preparação — DEUS.ai

Sobre a DEUS — conhece antes da entrevista

DEUS = Data | Engineering | User Experience | Strategy

Missão: AI que serve pessoas — inovação ética e com impacto. Nome inspirado em deus ex machina: AI que intervém para apoiar, resolver e servir.

Escritórios: Amsterdam, Porto, A Coruña — equipa multicultural.

Valores: "A tecnologia deve servir as pessoas"; "no assholes" policy; diversidade e inclusão.

Frase para usar: O que me atraiu na DEUS é o foco em AI que serve pessoas — não só inovador, mas ético e com impacto.


⚠️ Entrevista em Inglês

"Inglês escrito e falado excelente é o requisito central" — a entrevista pode ser em inglês.

  • Prepara o pitch e os 3 projetos em inglês
  • Tudo está em pt-PT para estudo; se a entrevista for em inglês, prepara também as respostas em inglês
  • Pratica dizer em voz alta: RAG, agentes, hallucinations, fine-tuning vs RAG

Prioridades por probabilidade de sair

Para esta vaga, é mais provável perguntarem RAG, agentes, arquitetura, produção e integração com dados do que entrarem fundo em PCA, CNN ou logistic regression.


🔴 Prioridade A — quase certo que pode sair

  • Pitch — Preparação, apresentação, posicionamento
  • Projetos Pessoais — 3 cases prontos (chatbot imobiliário, recomendação com agentes, cão)
  • RAG — arquitetura, chunking, hybrid search, reranking, tipos (naive, hybrid, parent-child, hierarchical, agentic)
  • Fundamentos de LLM — embeddings, hallucinations, temperature, pipeline
  • AI Agents — ReAct, LangGraph, tool calling, multi-agent
  • System Design — escalar, custos, RAG em produção
  • Costs / Scaling / Hallucinations — reduzir custos, evitar hallucinations

🟡 Prioridade B — pode sair

  • Vector DBs — cosine similarity, HNSW, ANN
  • FastAPI / APIs — streaming, deploy de modelos
  • Python async — GIL, threading vs multiprocessing
  • Monitoring / MLOps — caching, versioning, drift
  • Observability — Langfuse para LLMs (tracing, tokens, custo)
  • Integração com dados — pipelines, ingestão para RAG
  • NumPy, Pandas, PySpark — processamento de dados, ETL, pipelines para RAG
  • Stakeholder management — extração de requisitos, pilotar projetos, balancear prioridades
  • CI/CD, Terraform, Helm — infraestrutura como código, pipelines (mencionados na vaga)
  • Agile — Scrum, Kanban, sprints, retrospectivas (mencionado na vaga)
  • Coding / Live Coding — chunking, retry, parse JSON (exercícios práticos)

🟢 Prioridade C — só se houver tempo

  • ML clássico — bias/variance, overfitting, métricas (retorno menor)
  • Deep Learning genérico — CNN, RNN, backprop (foca em transformers)
  • Fine-tuning & Training — prompt engineering a full fine-tuning, LoRA, RLHF, RAG
  • Cloud genérico — serviços básicos, menos detalhe
  • Computer Vision — se tens experiência (vaga: NLP ou CV)

Estes tópicos foram encurtados, não apagados — o conteúdo está condensado para estudo rápido.


Ordem de estudo sugerida

  1. Guia (este) → Preparação (pitch) → Projetos Pessoais (3 cases) → RAGTipos de RAGLLMsAI Agents
  2. System Design + Arquitetura RAG + Agents
  3. Vector DBsAPIsPython asyncCodingNumPy/Pandas/PySparkMLOpsObservability & Cloud GenAI
  4. Data Engineering (integração)
  5. ML Fundamentals, Deep Learning, Fine-tuning & Training, Cloud — só se sobrar tempo
  6. Simulação — prática final

Versão de estudo vs versão falada

Algumas perguntas têm dois campos:

  • solução — versão técnica para estudo (fórmulas, detalhes)
  • spoken — versão natural para dizer em voz alta na entrevista

Em entrevista, usa a versão spoken; em estudo, consulta a solução.


✅ Checklist antes da entrevista

  • Pitch e projetos preparados em inglês (entrevista pode ser em EN)
  • Pitch de apresentação decorado
  • 3 cases de projetos decorados (imobiliário, recomendação, cão)
  • Curso de AI: versão forte decorada
  • 3 frases que impressionam prontas
  • Posicionamento: AI Systems Engineer (não ML engineer)
  • RAG: explicar em 2 frases
  • Hallucinations: causas + mitigação
  • Fine-tuning vs RAG: diferença clara
  • Design RAG para milhões de docs: arquitetura
  • Respostas senior: curtas, estruturadas
  • 3-4 perguntas para fazer ao entrevistador
  • Exemplo de stakeholder management / pilotar projeto (STAR)
  • Saber falar de Agile, CI/CD, Terraform se perguntarem
  • Praticar os 3 coding challenges (chunking, retry, parse JSON)

10 erros que fazem reprovar

  1. Falar só de modelos — querem sistemas, pipelines, arquitetura
  2. Não falar de produção — deployment, monitorização, escalabilidade
  3. Ignorar custo — caching, model routing, otimização de prompts
  4. Não falar de dados — qualidade de dados, pipelines, ingestão
  5. Ignorar segurança — prompt injection, guardrails
  6. Não saber explicar embeddings — obrigatório em GenAI
  7. Confundir RAG com fine-tuning — RAG=conhecimento; Fine-tuning=comportamento
  8. Não falar de avaliação — accuracy, groundedness, relevância
  9. Falar demasiado teórico — exemplos reais
  10. Não fazer perguntas — separa medianos de bons

Perguntas que TU deves fazer (escolhe 3-4)

  1. Que tipo de arquiteturas de AI estão a construir atualmente?
  2. Os vossos sistemas são maioritariamente baseados em RAG ou também usam fine-tuning?
  3. Quais os maiores desafios ao colocar sistemas LLM em produção?
  4. Como gerem a ingestão de conhecimento para os vossos sistemas de AI?
  5. Como avaliam a performance dos vossos sistemas de AI?
  6. Que tipo de sistemas de AI está a equipa a construir com o Diogo?
  7. Como é o stack de AI atual?
  8. Como trabalham com stakeholders — desde requirements até deployment?
  9. Usam Agile? Como são os sprints?

Bonus — Snowflake (se tiveres experiência)

A vaga menciona Snowflake como bonus: Streams & Tasks, Snowpipe, data sharing, governance. Se conheces: Snowpipe = ingestão contínua; Streams = CDC; Tasks = agendamento. Data sharing para partilhar dados entre contas.


Técnicas de estudo eficaz

  • Recuperação ativa — em vez de reler, tenta responder às perguntas sem olhar. Verifica depois.
  • Repetição espaçada — revisita os tópicos A após 1 dia, 3 dias e 1 semana.
  • Técnica de Feynman — explica RAG ou agentes em voz alta como se ensinasses alguém.
  • Prática falada — usa o campo spoken das perguntas; diz em voz alta antes de ver a solução.

Sinais de que estás pronto

  • Consegues explicar RAG em 30 segundos sem hesitar
  • Sabes a diferença entre os 6 tipos de RAG (naive, hybrid, reranking, parent-child, hierarchical, agentic)
  • Consegues desenhar um sistema RAG + agentes num whiteboard
  • Tens 3 projetos com estrutura problema → arquitetura → desafios → resultado
  • Sabes responder "Como reduzir custos?" e "Como evitar hallucinations?" de forma concisa
  • Implementas chunking ou retry com backoff sem olhar

Estratégia quando não sabes

  1. Não inventes — "Não trabalhei diretamente com X, mas entendo que..."
  2. Redireciona — "A minha experiência é mais em Y, que é relacionado..."
  3. Mostra raciocínio — "Se tivesse de desenhar, começaria por..."
  4. Pergunta — "É algo que usam em produção? Gostava de saber mais."

Recursos para aprofundar

  • RAG: LlamaIndex docs, LangChain RAG tutorial
  • Agents: LangGraph docs, ReAct paper
  • Produção: Langfuse blog, scale AI engineering posts
  • Design de sistemas: ByteByteGo, System Design Interview (addendum GenAI)

Zona de prática

Sem perguntas. Clica em Editar para adicionar.

Desafios de código

Exemplo de notebook (.ipynb)

Desafio em formato Jupyter. O código executa no DietPi em tempo real com output em streaming.

A carregar notebook...