Fundamentos de Python
Ementa: Ambientes de Desenvolvimento (VS Code, JupyterLab, Google Colab) e Controle de Versão (Git/GitHub). Variáveis, expressões lógicas e aritméticas. Lógica de Programação (fluxo sequencial, condicional e de repetição). Estruturas de Dados Fundamentais em Python. Subprogramação.
Ferramentas de Dados
Ementa: Aquisição e carregamento de dados (CSV, Excel, API, Bancos de Dados SQL). Fundamentos e Análise Exploratória de Dados (EDA). Estatística descritiva; Análise univariada; Análise bivariada. Limpeza e Tratamento de Dados (Data Cleaning). Transformação e Engenharia de Atributos (Feature Engineering). Visualização de dados e uso de bibliotecas interativas.
Introdução à Inteligência Artificial e Aprendizado de Máquina
Ementa: História e Conceitos Fundamentais da IA. Aprendizado Supervisionado (Regressão). Aprendizado Supervisionado (Classificação). Aprendizado Não Supervisionado (Agrupamento). Redes Neurais Artificiais: conceitos e principais fundamentos.
Aprendizado Profundo (Deep Learning)
Ementa: Do Machine Learning ao Deep Learning: a arquitetura Multi-Layer Perceptron (MLP). Mecanismos de Treinamento: Gradiente Descendente, Otimizadores (Adam, SGD), Funções de Perda. Construção e treinando de rede neural profunda com Keras/TensorFlow. Redes Neurais Convolucionais (CNNs) para Visão Computacional. Redes Neurais Recorrentes (RNNs) para Dados Sequenciais.
Arquitetura Transformer e os Grandes Modelos de Linguagem (LLMs)
Ementa: A Revolução da Atenção: por que as RNNs não eram suficientes? O problema do gargalo sequencial. A ideia central: Mecanismo de Atenção no contexto Seq2Seq. Desconstruindo a Atenção: Query (Q), Key (K) e Value (V). A Arquitetura Transformer: o Coração dos LLMs. O artigo “Attention Is All You Need”: uma análise guiada. Arquitetura Encoder-Decoder. Modelos de Fundação e Aplicações Práticas: Famílias GPT, BERT e Llama. Fundamentos de Engenharia de Prompt: estratégias básicas e avançadas de prompting (few-shot, chain-of-thought, reason and act); parâmetros de controle (temperatura, top-k, top-p, repetição, tokens).
Técnicas de Adaptação de LLMs: RAG e Fine-Tuning
Ementa: O Dilema da Adaptação: Quando um modelo pré-treinado não é suficiente? Visão Geral Comparativa: Fine-Tuning vs. RAG vs. Prompt Engineering. Ecossistema de Ferramentas: Introdução a Hugging Face PEFT, LangChain/LlamaIndex e Bancos de Dados Vetoriais (ChromaDB, FAISS). Fine-Tuning de Alta Eficiência (PEFT). Low-Rank Adaptation (LoRA): Desconstruindo a técnica. Geração Aumentada por Recuperação (RAG). Anatomia de um Pipeline RAG. Avaliação de Sistemas RAG: Métricas de fidelidade, precisão e recall do contexto.
Arquitetura e Desenvolvimento de Agentes Autônomos
Ementa: O que é um Agente? O ciclo Observar-Pensar-Agir (Observe-Think-Act). Anatomia de um Agente: LLM como cérebro, Ferramentas, Memória e Planejador. O Padrão ReAct (Reason + Act): A base do raciocínio passo a passo. Decomposição de Tarefas: Quebrando problemas complexos em passos executáveis. Integração com APIs externas. Tipos de Memória: Memória de curto prazo (no prompt) e de longo prazo (em bancos de dados vetoriais). Como avaliar um agente? Métricas de sucesso da tarefa, custo e confiabilidade.
Agentes de Pesquisa Profunda (Deep Research) com LangGraph
Ementa: O Agente de Pesquisa Autônomo: a arquitetura do gpt-researcher. O Fluxo de Trabalho: Geração de plano, execução de busca paralela, extração de fontes e síntese de relatório. LangGraph – Conceitos Fundamentais: o Grafo de Estados, Estado, Nós e Arestas. Roteamento Condicional para tomada de decisão. Gerenciamento do estado do grafo. Tópicos Avançados em Agentes com LangGraph: Persistência e Resiliência, orquestração e colaboração entre agentes, depuração e visualização de grafos.
LLMOps I – Implantação e Infraestrutura de Aplicações com LLMs
Ementa: Fundamentos de LLMOps: o abismo entre o notebook e o serviço real. O Ciclo de Vida LLMOps: Visão geral das etapas. Introdução à Containerização com Docker: Conceitos e boas práticas. Construindo uma API robusta para a aplicação LLM com FastAPI. Análise de Estratégias: Serverless (AWS Lambda), Orquestradores (Kubernetes) e Endpoints Gerenciados (SageMaker, Hugging Face). Conceitos de Integração Contínua e Entrega Contínua (CI/CD). Introdução ao GitHub Actions para automação de workflows.
LLMOps II – Monitoramento, Governança e Otimização
Ementa: O desafio da avaliação de LLMs em produção: Métricas tradicionais vs. métricas de qualidade. Frameworks de Avaliação (RAGAs, TruLens): Métricas para RAG (Faithfulness, Answer Relevancy) e para Fine-tuning (Style, Toxicity). Monitoramento, Logging e Rastreabilidade. Segurança e Governança de LLMs. Otimização de Performance e Custos. Estratégias de Caching e Otimização de Inferência.
Ética, Governança e IA Responsável
Ementa: Vieses (Bias) em Dados e Modelos: Fontes, detecção e mitigação. Desinformação, Deepfakes e o uso malicioso da tecnologia. Privacidade de Dados, Direitos Autorais e a Propriedade Intelectual na IA. Frameworks de Governança: NIST AI Risk Management Framework e AI Act da União Europeia. Transparência, Explicabilidade (XAI) e o direito à contestação de decisões algorítmicas.
Estratégia de Produtos e Inovação com IA
Ementa: Análise de Mercado: Identificando problemas e o Product-Market Fit para soluções de IA. Desenvolvimento de um Business Case para projetos de IA: ROI, custos e riscos. Gestão de Produtos de IA: Definição de roadmap, métricas de sucesso e MVP. Construindo “Vantagens Competitivas” (Moats) em Produtos de IA (dados, comunidade, etc.). O Futuro do Trabalho e a Transformação Organizacional impulsionada pela IA.