Apresentação
☁️ Cloud AI
🟢 Prioridade C — visão geral. Para esta vaga, RAG e agentes importam mais. A vaga menciona AWS, GCP, Azure.
AWS — serviços para AI
Compute: Lambda (serverless, event-driven), ECS/Fargate (containers managed), EC2 (controlo total). SageMaker (ML training + inference).
Storage: S3 (objetos, dados para treino, documentos para RAG), EBS (discos para instâncias).
AI: Bedrock (LLMs managed — Claude, Llama), Transcribe (speech-to-text), Comprehend (NLP).
Outros: API Gateway, CloudWatch (logs, métricas), Secrets Manager, VPC (networking).
GCP — serviços para AI
Compute: Cloud Run (containers serverless), GKE (Kubernetes), Compute Engine.
Storage: Cloud Storage (GCS), BigQuery (analytics, pode alimentar ML).
AI: Vertex AI (Gemini, PaLM, Llama, pipelines ML, feature store, model registry).
Outros: Cloud Functions, Secret Manager, Cloud Monitoring.
Azure
Compute: Azure Functions, Container Apps, AKS (Kubernetes).
AI: Azure OpenAI (GPT, Claude via Azure), Cognitive Services (vision, speech, language).
Storage: Blob Storage, Azure Data Lake.
Serverless vs containers — quando cada um
| Serverless (Lambda, Cloud Functions) | Containers (K8s, Cloud Run, ECS) |
|---|---|
| Tráfego esporádico, escala a zero | Tráfego constante |
| Cold start ok (1-5s) | Sempre warm |
| Sem estado, stateless | Modelos em memória |
| Pay per invocation | Pay por tempo de execução |
| Limite de tempo (15 min Lambda) | Sem limite |
Para LLMs: containers quando modelo em memória ou latência crítica. Serverless para orquestração, webhooks, tarefas leves.
Arquitetura típica — pipeline LLM na cloud
User → API Gateway → Lambda/Cloud Run (orquestração) → Bedrock/Vertex (LLM) + Vector DB (Pinecone/RDS)
↓
S3/GCS (documentos, embeddings cache)
Custos — o que considerar
- Compute: horas de instância, vCPUs, memória
- LLM APIs: tokens in/out (Bedrock, Vertex, OpenAI)
- Storage: GB/mês (S3, GCS)
- Data transfer: saída para internet
- Vector DB: Pinecone por pod, ou self-host em RDS
Vertex AI (GCP) — detalhe
Modelos: Gemini, PaLM, Llama, Mistral. Pipelines de ML (Kubeflow). Feature store para features reutilizáveis. Model registry para versionamento. Endpoints para inference. Integração com BigQuery.
Azure OpenAI
OpenAI API dentro da Azure. Compliance, data residency (Europa). Private endpoints (rede privada). Integração com Azure AD. Útil quando: stack Microsoft, compliance strict.
Para Langfuse, Bedrock, Transcribe, SageMaker em detalhe → ver Observability & Cloud AI para GenAI
Zona de prática
Sem perguntas. Clica em Editar para adicionar.