← Voltar a AI Engineer — DEUS.ai

🟢 C — Cloud AI

AI Engineer — DEUS.ai

Apresentação

☁️ Cloud AI

🟢 Prioridade C — visão geral. Para esta vaga, RAG e agentes importam mais. A vaga menciona AWS, GCP, Azure.


AWS — serviços para AI

Compute: Lambda (serverless, event-driven), ECS/Fargate (containers managed), EC2 (controlo total). SageMaker (ML training + inference).

Storage: S3 (objetos, dados para treino, documentos para RAG), EBS (discos para instâncias).

AI: Bedrock (LLMs managed — Claude, Llama), Transcribe (speech-to-text), Comprehend (NLP).

Outros: API Gateway, CloudWatch (logs, métricas), Secrets Manager, VPC (networking).


GCP — serviços para AI

Compute: Cloud Run (containers serverless), GKE (Kubernetes), Compute Engine.

Storage: Cloud Storage (GCS), BigQuery (analytics, pode alimentar ML).

AI: Vertex AI (Gemini, PaLM, Llama, pipelines ML, feature store, model registry).

Outros: Cloud Functions, Secret Manager, Cloud Monitoring.


Azure

Compute: Azure Functions, Container Apps, AKS (Kubernetes).

AI: Azure OpenAI (GPT, Claude via Azure), Cognitive Services (vision, speech, language).

Storage: Blob Storage, Azure Data Lake.


Serverless vs containers — quando cada um

Serverless (Lambda, Cloud Functions)Containers (K8s, Cloud Run, ECS)
Tráfego esporádico, escala a zeroTráfego constante
Cold start ok (1-5s)Sempre warm
Sem estado, statelessModelos em memória
Pay per invocationPay por tempo de execução
Limite de tempo (15 min Lambda)Sem limite

Para LLMs: containers quando modelo em memória ou latência crítica. Serverless para orquestração, webhooks, tarefas leves.


Arquitetura típica — pipeline LLM na cloud

User → API Gateway → Lambda/Cloud Run (orquestração) → Bedrock/Vertex (LLM) + Vector DB (Pinecone/RDS)
         ↓
      S3/GCS (documentos, embeddings cache)

Custos — o que considerar

  • Compute: horas de instância, vCPUs, memória
  • LLM APIs: tokens in/out (Bedrock, Vertex, OpenAI)
  • Storage: GB/mês (S3, GCS)
  • Data transfer: saída para internet
  • Vector DB: Pinecone por pod, ou self-host em RDS

Vertex AI (GCP) — detalhe

Modelos: Gemini, PaLM, Llama, Mistral. Pipelines de ML (Kubeflow). Feature store para features reutilizáveis. Model registry para versionamento. Endpoints para inference. Integração com BigQuery.


Azure OpenAI

OpenAI API dentro da Azure. Compliance, data residency (Europa). Private endpoints (rede privada). Integração com Azure AD. Útil quando: stack Microsoft, compliance strict.


Para Langfuse, Bedrock, Transcribe, SageMaker em detalhe → ver Observability & Cloud AI para GenAI

Zona de prática

Sem perguntas. Clica em Editar para adicionar.