Apresentação
⚖️ Fine-tuning vs RAG — Quando cada um
Ambos mencionados na vaga. Saber a diferença é essencial.
RAG (Retrieval-Augmented Generation)
- O quê: Injeta conhecimento externo no prompt em tempo de inferência
- Altera: Conhecimento disponível ao modelo
- Quando: Conhecimento que muda frequentemente, documentos específicos, dados internos
- Vantagens: Atualização sem retreino, fundamentação, reduz hallucinations
Fine-tuning
- O quê: Treinar o modelo em dados específicos para alterar comportamento
- Altera: Comportamento, estilo, formato de output do modelo
- Quando: Tarefa específica (ex: extração de entidades), estilo de escrita, domínio muito específico
- Vantagens: Melhor performance em tarefa narrow, menos tokens no prompt
Resumo
| RAG | Fine-tuning | |
|---|---|---|
| Altera | Conhecimento (no prompt) | Comportamento (pesos do modelo) |
| Quando | Conhecimento dinâmico | Tarefa/estilo específico |
| Atualização | Só re-indexar | Retreinar |
| Custo | Inferência (retrieval + LLM) | Treino + inferência |
Para Nutrium
- RAG — Guidelines de nutrição, documentação, perguntas sobre recomendações (conhecimento que pode ser atualizado)
- Fine-tuning — Possível para extração estruturada de dados de consultas, ou formatação específica de planos alimentares. Mas RAG é provavelmente o foco principal.
Frase que impressiona
"RAG para conhecimento que muda — guidelines, docs. Fine-tuning para comportamento que queremos fixar — formato de output, tarefa específica. Em nutrição, a maior parte do valor vem de RAG com groundedness forte."
Zona de prática
Sem perguntas. Clica em Editar para adicionar.