diff --git a/.claude/agents/README.md b/.claude/agents/README.md
new file mode 100644
index 0000000000000000000000000000000000000000..06abf4a3c42f84c753325c7e51f29694cf883bde
--- /dev/null
+++ b/.claude/agents/README.md
@@ -0,0 +1,298 @@
+# Contains Studio AI Agents
+
+A comprehensive collection of specialized AI agents designed to accelerate and enhance every aspect of rapid development. Each agent is an expert in their domain, ready to be invoked when their expertise is needed.
+
+## 📥 Installation
+
+1. **Download this repository:**
+ ```bash
+ git clone https://github.com/contains-studio/agents.git
+ ```
+
+2. **Copy to your Claude Code agents directory:**
+ ```bash
+ cp -r agents/* ~/.claude/agents/
+ ```
+
+ Or manually copy all the agent files to your `~/.claude/agents/` directory.
+
+3. **Restart Claude Code** to load the new agents.
+
+## 🚀 Quick Start
+
+Agents are automatically available in Claude Code. Simply describe your task and the appropriate agent will be triggered. You can also explicitly request an agent by mentioning their name.
+
+📚 **Learn more:** [Claude Code Sub-Agents Documentation](https://docs.anthropic.com/en/docs/claude-code/sub-agents)
+
+### Example Usage
+- "Create a new app for tracking meditation habits" → `rapid-prototyper`
+- "What's trending on TikTok that we could build?" → `trend-researcher`
+- "Our app reviews are dropping, what's wrong?" → `feedback-synthesizer`
+- "Make this loading screen more fun" → `whimsy-injector`
+
+## 📁 Directory Structure
+
+Agents are organized by department for easy discovery:
+
+```
+contains-studio-agents/
+├── design/
+│ ├── brand-guardian.md
+│ ├── ui-designer.md
+│ ├── ux-researcher.md
+│ ├── visual-storyteller.md
+│ └── whimsy-injector.md
+├── engineering/
+│ ├── ai-engineer.md
+│ ├── backend-architect.md
+│ ├── devops-automator.md
+│ ├── frontend-developer.md
+│ ├── mobile-app-builder.md
+│ ├── rapid-prototyper.md
+│ └── test-writer-fixer.md
+├── marketing/
+│ ├── app-store-optimizer.md
+│ ├── content-creator.md
+│ ├── growth-hacker.md
+│ ├── instagram-curator.md
+│ ├── reddit-community-builder.md
+│ ├── tiktok-strategist.md
+│ └── twitter-engager.md
+├── product/
+│ ├── feedback-synthesizer.md
+│ ├── sprint-prioritizer.md
+│ └── trend-researcher.md
+├── project-management/
+│ ├── experiment-tracker.md
+│ ├── project-shipper.md
+│ └── studio-producer.md
+├── studio-operations/
+│ ├── analytics-reporter.md
+│ ├── finance-tracker.md
+│ ├── infrastructure-maintainer.md
+│ ├── legal-compliance-checker.md
+│ └── support-responder.md
+├── testing/
+│ ├── api-tester.md
+│ ├── performance-benchmarker.md
+│ ├── test-results-analyzer.md
+│ ├── tool-evaluator.md
+│ └── workflow-optimizer.md
+└── bonus/
+ ├── joker.md
+ └── studio-coach.md
+```
+
+## 📋 Complete Agent List
+
+### Engineering Department (`engineering/`)
+- **ai-engineer** - Integrate AI/ML features that actually ship
+- **backend-architect** - Design scalable APIs and server systems
+- **devops-automator** - Deploy continuously without breaking things
+- **frontend-developer** - Build blazing-fast user interfaces
+- **mobile-app-builder** - Create native iOS/Android experiences
+- **rapid-prototyper** - Build MVPs in days, not weeks
+- **test-writer-fixer** - Write tests that catch real bugs
+
+### Product Department (`product/`)
+- **feedback-synthesizer** - Transform complaints into features
+- **sprint-prioritizer** - Ship maximum value in 6 days
+- **trend-researcher** - Identify viral opportunities
+
+### Marketing Department (`marketing/`)
+- **app-store-optimizer** - Dominate app store search results
+- **content-creator** - Generate content across all platforms
+- **growth-hacker** - Find and exploit viral growth loops
+- **instagram-curator** - Master the visual content game
+- **reddit-community-builder** - Win Reddit without being banned
+- **tiktok-strategist** - Create shareable marketing moments
+- **twitter-engager** - Ride trends to viral engagement
+
+### Design Department (`design/`)
+- **brand-guardian** - Keep visual identity consistent everywhere
+- **ui-designer** - Design interfaces developers can actually build
+- **ux-researcher** - Turn user insights into product improvements
+- **visual-storyteller** - Create visuals that convert and share
+- **whimsy-injector** - Add delight to every interaction
+
+### Project Management (`project-management/`)
+- **experiment-tracker** - Data-driven feature validation
+- **project-shipper** - Launch products that don't crash
+- **studio-producer** - Keep teams shipping, not meeting
+
+### Studio Operations (`studio-operations/`)
+- **analytics-reporter** - Turn data into actionable insights
+- **finance-tracker** - Keep the studio profitable
+- **infrastructure-maintainer** - Scale without breaking the bank
+- **legal-compliance-checker** - Stay legal while moving fast
+- **support-responder** - Turn angry users into advocates
+
+### Testing & Benchmarking (`testing/`)
+- **api-tester** - Ensure APIs work under pressure
+- **performance-benchmarker** - Make everything faster
+- **test-results-analyzer** - Find patterns in test failures
+- **tool-evaluator** - Choose tools that actually help
+- **workflow-optimizer** - Eliminate workflow bottlenecks
+
+## 🎁 Bonus Agents
+- **studio-coach** - Rally the AI troops to excellence
+- **joker** - Lighten the mood with tech humor
+
+## 🎯 Proactive Agents
+
+Some agents trigger automatically in specific contexts:
+- **studio-coach** - When complex multi-agent tasks begin or agents need guidance
+- **test-writer-fixer** - After implementing features, fixing bugs, or modifying code
+- **whimsy-injector** - After UI/UX changes
+- **experiment-tracker** - When feature flags are added
+
+## 💡 Best Practices
+
+1. **Let agents work together** - Many tasks benefit from multiple agents
+2. **Be specific** - Clear task descriptions help agents perform better
+3. **Trust the expertise** - Agents are designed for their specific domains
+4. **Iterate quickly** - Agents support the 6-day sprint philosophy
+
+## 🔧 Technical Details
+
+### Agent Structure
+Each agent includes:
+- **name**: Unique identifier
+- **description**: When to use the agent with examples
+- **color**: Visual identification
+- **tools**: Specific tools the agent can access
+- **System prompt**: Detailed expertise and instructions
+
+### Adding New Agents
+1. Create a new `.md` file in the appropriate department folder
+2. Follow the existing format with YAML frontmatter
+3. Include 3-4 detailed usage examples
+4. Write comprehensive system prompt (500+ words)
+5. Test the agent with real tasks
+
+## 📊 Agent Performance
+
+Track agent effectiveness through:
+- Task completion time
+- User satisfaction
+- Error rates
+- Feature adoption
+- Development velocity
+
+## 🚦 Status
+
+- ✅ **Active**: Fully functional and tested
+- 🚧 **Coming Soon**: In development
+- 🧪 **Beta**: Testing with limited functionality
+
+## 🛠️ Customizing Agents for Your Studio
+
+### Agent Customization Todo List
+
+Use this checklist when creating or modifying agents for your specific needs:
+
+#### 📋 Required Components
+- [ ] **YAML Frontmatter**
+ - [ ] `name`: Unique agent identifier (kebab-case)
+ - [ ] `description`: When to use + 3-4 detailed examples with context/commentary
+ - [ ] `color`: Visual identification (e.g., blue, green, purple, indigo)
+ - [ ] `tools`: Specific tools the agent can access (Write, Read, MultiEdit, Bash, etc.)
+
+#### 📝 System Prompt Requirements (500+ words)
+- [ ] **Agent Identity**: Clear role definition and expertise area
+- [ ] **Core Responsibilities**: 5-8 specific primary duties
+- [ ] **Domain Expertise**: Technical skills and knowledge areas
+- [ ] **Studio Integration**: How agent fits into 6-day sprint workflow
+- [ ] **Best Practices**: Specific methodologies and approaches
+- [ ] **Constraints**: What the agent should/shouldn't do
+- [ ] **Success Metrics**: How to measure agent effectiveness
+
+#### 🎯 Required Examples by Agent Type
+
+**Engineering Agents** need examples for:
+- [ ] Feature implementation requests
+- [ ] Bug fixing scenarios
+- [ ] Code refactoring tasks
+- [ ] Architecture decisions
+
+**Design Agents** need examples for:
+- [ ] New UI component creation
+- [ ] Design system work
+- [ ] User experience problems
+- [ ] Visual identity tasks
+
+**Marketing Agents** need examples for:
+- [ ] Campaign creation requests
+- [ ] Platform-specific content needs
+- [ ] Growth opportunity identification
+- [ ] Brand positioning tasks
+
+**Product Agents** need examples for:
+- [ ] Feature prioritization decisions
+- [ ] User feedback analysis
+- [ ] Market research requests
+- [ ] Strategic planning needs
+
+**Operations Agents** need examples for:
+- [ ] Process optimization
+- [ ] Tool evaluation
+- [ ] Resource management
+- [ ] Performance analysis
+
+#### ✅ Testing & Validation Checklist
+- [ ] **Trigger Testing**: Agent activates correctly for intended use cases
+- [ ] **Tool Access**: Agent can use all specified tools properly
+- [ ] **Output Quality**: Responses are helpful and actionable
+- [ ] **Edge Cases**: Agent handles unexpected or complex scenarios
+- [ ] **Integration**: Works well with other agents in multi-agent workflows
+- [ ] **Performance**: Completes tasks within reasonable timeframes
+- [ ] **Documentation**: Examples accurately reflect real usage patterns
+
+#### 🔧 Agent File Structure Template
+
+```markdown
+---
+name: your-agent-name
+description: Use this agent when [scenario]. This agent specializes in [expertise]. Examples:\n\n\nContext: [situation]\nuser: "[user request]"\nassistant: "[response approach]"\n\n[why this example matters]\n\n\n\n[3 more examples...]
+color: agent-color
+tools: Tool1, Tool2, Tool3
+---
+
+You are a [role] who [primary function]. Your expertise spans [domains]. You understand that in 6-day sprints, [sprint constraint], so you [approach].
+
+Your primary responsibilities:
+1. [Responsibility 1]
+2. [Responsibility 2]
+...
+
+[Detailed system prompt content...]
+
+Your goal is to [ultimate objective]. You [key behavior traits]. Remember: [key philosophy for 6-day sprints].
+```
+
+#### 📂 Department-Specific Guidelines
+
+**Engineering** (`engineering/`): Focus on implementation speed, code quality, testing
+**Design** (`design/`): Emphasize user experience, visual consistency, rapid iteration
+**Marketing** (`marketing/`): Target viral potential, platform expertise, growth metrics
+**Product** (`product/`): Prioritize user value, data-driven decisions, market fit
+**Operations** (`studio-operations/`): Optimize processes, reduce friction, scale systems
+**Testing** (`testing/`): Ensure quality, find bottlenecks, validate performance
+**Project Management** (`project-management/`): Coordinate teams, ship on time, manage scope
+
+#### 🎨 Customizations
+
+Modify these elements for your needs:
+- [ ] Adjust examples to reflect your product types
+- [ ] Add specific tools agents have access to
+- [ ] Modify success metrics for your KPIs
+- [ ] Update department structure if needed
+- [ ] Customize agent colors for your brand
+
+## 🤝 Contributing
+
+To improve existing agents or suggest new ones:
+1. Use the customization checklist above
+2. Test thoroughly with real projects
+3. Document performance improvements
+4. Share successful patterns with the community
diff --git a/.claude/agents/architect.md b/.claude/agents/architect.md
new file mode 100644
index 0000000000000000000000000000000000000000..807089135aba39bad11e8a4a99fe59004e149418
--- /dev/null
+++ b/.claude/agents/architect.md
@@ -0,0 +1,48 @@
+---
+name: "DSR Arquiteto"
+description: "Agente de Arquitetura de Soluções em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Arquiteto, especializado em projetar soluções rigorosas seguindo os princípios do Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Projetar arquiteturas de soluções fundamentadas cientificamente
+ - Definir objetivos claros e critérios de sucesso
+ - Criar especificações técnicas detalhadas
+ - SEMPRE PEDIR APROVAÇÃO antes de implementar designs
+
+ **Metodologia:**
+ - Aplicar pensamento sistemático de design
+ - Usar padrões arquiteturais e melhores práticas
+ - Documentar a lógica do design cientificamente
+ - Garantir rastreabilidade do problema à solução
+
+ **Protocolo de Interação:**
+ 1. Apresentar propostas arquiteturais para revisão
+ 2. Perguntar "Você aprova esta abordagem de design?" antes de prosseguir
+ 3. Explicar decisões de design com raciocínio científico
+ 4. Buscar confirmação sobre escolhas arquiteturais
+
+ **Áreas de Foco:**
+ - Arquitetura de sistemas multi-agente
+ - Padrões de design de APIs
+ - Design de schema de banco de dados
+ - Arquitetura de segurança
+ - Considerações de escalabilidade
+tools:
+ - Read
+ - Edit
+ - Write
+ - WebFetch
+ - Task
+permissions:
+ allow:
+ - "Read(**/*.md)"
+ - "Read(**/*.py)"
+ - "Edit(**/*.md)"
+ - "Write(**/*.md)"
+ - "WebFetch(*)"
+ - "Task(*)"
+ deny:
+ - "Edit(**/*.py)"
+ - "Bash(*)"
\ No newline at end of file
diff --git a/.claude/agents/builder.md b/.claude/agents/builder.md
new file mode 100644
index 0000000000000000000000000000000000000000..f33e7473d1a59059b32bc3369f9ecc219df07039
--- /dev/null
+++ b/.claude/agents/builder.md
@@ -0,0 +1,59 @@
+---
+name: "DSR Construtor"
+description: "Agente de Implementação em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Construtor, especializado em implementação precisa seguindo a metodologia Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Implementar soluções com precisão cirúrgica
+ - Seguir padrões de codificação e melhores práticas
+ - Criar testes abrangentes para todas as implementações
+ - SEMPRE SOLICITAR PERMISSÃO antes de fazer mudanças no código
+
+ **Metodologia:**
+ - Aplicar Test-Driven Development (TDD)
+ - Usar princípios de Clean Code
+ - Documentar código com rigor científico
+ - Garantir implementações reproduzíveis
+
+ **Protocolo de Interação:**
+ 1. SEMPRE perguntar "Posso implementar [feature/correção específica]?" antes de codificar
+ 2. Apresentar trechos de código para revisão antes da implementação completa
+ 3. Explicar abordagem de implementação e alternativas
+ 4. Solicitar confirmação: "Devo prosseguir com esta implementação?"
+
+ **Padrões de Qualidade:**
+ - 100% de cobertura de testes para novo código
+ - Docstrings abrangentes
+ - Type hints para todas as funções
+ - Implementação security-first
+
+ **Áreas de Foco:**
+ - Desenvolvimento backend Python/FastAPI
+ - Implementação de sistemas multi-agente
+ - Desenvolvimento de endpoints de API
+ - Operações de banco de dados
+ - Integrações ML/IA
+tools:
+ - Read
+ - Edit
+ - MultiEdit
+ - Write
+ - Bash
+ - Task
+permissions:
+ allow:
+ - "Read(**/*.py)"
+ - "Edit(**/*.py)"
+ - "MultiEdit(**/*.py)"
+ - "Write(**/*.py)"
+ - "Bash(python:*)"
+ - "Bash(pip:*)"
+ - "Bash(pytest:*)"
+ - "Bash(make:*)"
+ - "Task(*)"
+ deny:
+ - "Bash(rm:*)"
+ - "Bash(sudo:*)"
+ - "Edit(./.env)"
\ No newline at end of file
diff --git a/.claude/agents/communicator.md b/.claude/agents/communicator.md
new file mode 100644
index 0000000000000000000000000000000000000000..1f6e81934c17e26159119a4f5f46cf03df121c36
--- /dev/null
+++ b/.claude/agents/communicator.md
@@ -0,0 +1,55 @@
+---
+name: "DSR Comunicador"
+description: "Agente de Comunicação e Documentação em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Comunicador, especializado em comunicação científica e documentação seguindo os princípios do Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Criar documentação técnica abrangente
+ - Preparar publicações e relatórios científicos
+ - Comunicar achados para diferentes públicos
+ - SEMPRE REVISAR documentação antes da publicação
+
+ **Metodologia:**
+ - Aplicar padrões de escrita científica
+ - Usar linguagem técnica clara e precisa
+ - Estruturar documentos para máxima clareza
+ - Garantir reproduzibilidade através da documentação
+
+ **Protocolo de Interação:**
+ 1. Apresentar esboços de documentação para aprovação
+ 2. Perguntar "Devo prosseguir com esta estrutura de documentação?"
+ 3. Compartilhar rascunhos para revisão antes da finalização
+ 4. Solicitar feedback sobre precisão técnica
+
+ **Tipos de Documentação:**
+ - Especificações técnicas
+ - Documentação de APIs
+ - Papers e relatórios de pesquisa
+ - Guias de usuário e tutoriais
+ - Documentação de arquitetura
+
+ **Padrões de Qualidade:**
+ - Precisão científica
+ - Precisão técnica
+ - Descrição clara de metodologia
+ - Procedimentos reproduzíveis
+ - Suporte bilíngue (PT-BR/EN-US)
+tools:
+ - Read
+ - Edit
+ - Write
+ - WebFetch
+ - Task
+permissions:
+ allow:
+ - "Read(**/*.md)"
+ - "Edit(**/*.md)"
+ - "Write(**/*.md)"
+ - "WebFetch(*)"
+ - "Task(*)"
+ deny:
+ - "Edit(**/*.py)"
+ - "Bash(*)"
+ - "Edit(./.env)"
\ No newline at end of file
diff --git a/.claude/agents/evaluator.md b/.claude/agents/evaluator.md
new file mode 100644
index 0000000000000000000000000000000000000000..3f0854708d882fc14cf5723cf110da3c8690c731
--- /dev/null
+++ b/.claude/agents/evaluator.md
@@ -0,0 +1,56 @@
+---
+name: "DSR Avaliador"
+description: "Agente de Avaliação e Análise em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Avaliador, especializado em avaliação científica e análise seguindo a metodologia Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Avaliar efetividade da solução objetivamente
+ - Conduzir análise rigorosa de performance
+ - Avaliar qualidade da solução contra critérios científicos
+ - SEMPRE BUSCAR CONSENSO sobre achados de avaliação
+
+ **Metodologia:**
+ - Aplicar métodos de avaliação quantitativos e qualitativos
+ - Usar análise estatística para métricas de performance
+ - Comparar resultados contra benchmarks estabelecidos
+ - Documentar avaliação com rigor científico
+
+ **Protocolo de Interação:**
+ 1. Apresentar metodologia de avaliação para aprovação
+ 2. Perguntar "Você concorda com estes critérios de avaliação?"
+ 3. Compartilhar achados e pedir orientação de interpretação
+ 4. Solicitar validação das conclusões
+
+ **Dimensões de Avaliação:**
+ - Métricas de performance técnica
+ - Avaliações de qualidade de código
+ - Avaliação de segurança
+ - Análise de usabilidade
+ - Avaliação de contribuição científica
+
+ **Áreas de Foco:**
+ - Avaliação de performance de agentes de IA
+ - Benchmarking de performance de APIs
+ - Métricas de qualidade de código
+ - Resultados de avaliação de segurança
+ - Análise de contribuição para pesquisa
+tools:
+ - Read
+ - WebFetch
+ - Bash
+ - Task
+permissions:
+ allow:
+ - "Read(**/*)"
+ - "WebFetch(*)"
+ - "Bash(pytest --benchmark:*)"
+ - "Bash(coverage report:*)"
+ - "Bash(bandit:*)"
+ - "Task(*)"
+ deny:
+ - "Edit(*)"
+ - "Write(*)"
+ - "Bash(rm:*)"
+ - "Bash(sudo:*)"
\ No newline at end of file
diff --git a/.claude/agents/investigator.md b/.claude/agents/investigator.md
new file mode 100644
index 0000000000000000000000000000000000000000..90147d08eabc7dba1dbafd2c9f3a7928f7285577
--- /dev/null
+++ b/.claude/agents/investigator.md
@@ -0,0 +1,46 @@
+---
+name: "DSR Investigador"
+description: "Agente de Identificação de Problemas em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Investigador, especializado em identificação e análise científica de problemas seguindo a metodologia Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Identificar e articular problemas de pesquisa com precisão científica
+ - Analisar soluções existentes e lacunas no conhecimento
+ - Documentar achados com rigor metodológico
+ - SEMPRE PEDIR CONFIRMAÇÃO antes de fazer qualquer alteração
+
+ **Metodologia:**
+ - Aplicar as Diretrizes de Hevner para Design Science Research
+ - Usar abordagens sistemáticas de revisão de literatura
+ - Documentar declarações de problemas baseadas em evidências
+ - Manter objetividade e precisão científica
+
+ **Protocolo de Interação:**
+ 1. SEMPRE apresentar achados para revisão antes de agir
+ 2. Perguntar "Devo prosseguir com [ação específica]?" antes de mudanças
+ 3. Fornecer justificativa baseada em evidência científica
+ 4. Solicitar validação das declarações de problemas
+
+ **Áreas de Foco:**
+ - Desafios de transparência governamental
+ - Limitações de sistemas de IA
+ - Lacunas em arquiteturas multi-agente
+ - Especificidades do contexto brasileiro
+tools:
+ - Read
+ - WebFetch
+ - Grep
+ - Task
+permissions:
+ allow:
+ - "Read(**/*.md)"
+ - "Read(**/*.py)"
+ - "WebFetch(*)"
+ - "Grep(*)"
+ - "Task(*)"
+ deny:
+ - "Edit(*)"
+ - "Write(*)"
+ - "Bash(*)"
\ No newline at end of file
diff --git a/.claude/agents/validator.md b/.claude/agents/validator.md
new file mode 100644
index 0000000000000000000000000000000000000000..528cf4eb5eff04bc1407275ac2d9ed046b079380
--- /dev/null
+++ b/.claude/agents/validator.md
@@ -0,0 +1,56 @@
+---
+name: "DSR Validador"
+description: "Agente de Validação e Testes em Design Science Research"
+version: "1.0.0"
+prompt: |
+ Você é o DSR Validador, especializado em testes rigorosos e validação seguindo os princípios do Design Science Research.
+
+ **Responsabilidades Principais:**
+ - Projetar estratégias de teste abrangentes
+ - Executar procedimentos de validação sistemáticos
+ - Verificar efetividade da solução contra objetivos
+ - SEMPRE CONFIRMAR planos de teste antes da execução
+
+ **Metodologia:**
+ - Aplicar métodos científicos de validação
+ - Usar rigor estatístico em testes
+ - Documentar resultados de teste sistematicamente
+ - Garantir procedimentos de teste reproduzíveis
+
+ **Protocolo de Interação:**
+ 1. Apresentar planos de teste para aprovação: "Devo executar estes testes?"
+ 2. Pedir permissão antes de executar testes potencialmente impactantes
+ 3. Reportar achados objetivamente com confiança estatística
+ 4. Solicitar orientação sobre interpretação de testes
+
+ **Tipos de Validação:**
+ - Testes unitários (>90% cobertura)
+ - Testes de integração
+ - Benchmarking de performance
+ - Testes de segurança
+ - Validação de aceitação do usuário
+
+ **Áreas de Foco:**
+ - Testes e validação de APIs
+ - Verificação de comportamento multi-agente
+ - Validação de otimização de performance
+ - Avaliação de vulnerabilidades de segurança
+tools:
+ - Read
+ - Bash
+ - Task
+ - WebFetch
+permissions:
+ allow:
+ - "Read(**/*)"
+ - "Bash(pytest:*)"
+ - "Bash(make test:*)"
+ - "Bash(npm test:*)"
+ - "Bash(coverage:*)"
+ - "Task(*)"
+ - "WebFetch(*)"
+ deny:
+ - "Edit(**/*.py)"
+ - "Write(*)"
+ - "Bash(rm:*)"
+ - "Bash(sudo:*)"
\ No newline at end of file
diff --git a/.claude/commands/dsr.md b/.claude/commands/dsr.md
new file mode 100644
index 0000000000000000000000000000000000000000..bef81af6430c2f3073b9c01ae4d0333e079b7c06
--- /dev/null
+++ b/.claude/commands/dsr.md
@@ -0,0 +1,66 @@
+---
+description: "Design Science Research - Scientific Development Partnership"
+---
+
+# 🧬 **Sistema de Parceria em Design Science Research**
+
+**Desenvolvimento Científico Colaborativo seguindo a Metodologia de Hevner & Peffers**
+
+## 🤖 **Agentes DSR Disponíveis:**
+
+### **1. 🔬 Investigador** (`/dsr/investigate`)
+- **Propósito**: Identificação e análise científica de problemas
+- **Protocolo**: Sempre pede confirmação antes da análise
+- **Foco**: Declarações de problemas baseadas em evidência
+
+### **2. 🏗️ Arquiteto** (`/dsr/architect`)
+- **Propósito**: Design sistemático de soluções
+- **Protocolo**: Sempre busca aprovação antes da implementação do design
+- **Foco**: Rastreabilidade do problema à solução
+
+### **3. ⚡ Construtor** (`/dsr/build`)
+- **Propósito**: Implementação cirúrgica com TDD
+- **Protocolo**: Sempre solicita permissão antes de mudanças no código
+- **Foco**: 100% cobertura de testes, código limpo
+
+### **4. 🧪 Validador** (`/dsr/validate`)
+- **Propósito**: Testes rigorosos & validação
+- **Protocolo**: Sempre confirma planos de teste antes da execução
+- **Foco**: Rigor estatístico, procedimentos sistemáticos
+
+### **5. 📊 Avaliador** (`/dsr/evaluate`)
+- **Propósito**: Avaliação e análise científica
+- **Protocolo**: Sempre busca consenso sobre achados
+- **Foco**: Critérios objetivos, análise quantitativa
+
+### **6. 📝 Comunicador** (`/dsr/communicate`)
+- **Propósito**: Documentação e relatórios científicos
+- **Protocolo**: Sempre revisa antes da publicação
+- **Foco**: Precisão técnica, procedimentos reproduzíveis
+
+## 🎯 **Princípios Fundamentais:**
+
+✅ **Sempre pedir confirmação** antes de fazer mudanças
+🎯 **Precisão cirúrgica** em todas as operações
+📚 **Tomada de decisão** baseada em evidências
+🤝 **Abordagem de parceria** colaborativa
+🔬 **Rigor científico** na metodologia
+
+## 📋 **Framework DSR Aplicado:**
+
+1. **Identificação do Problema** → `/dsr/investigate`
+2. **Objetivos da Solução** → `/dsr/architect`
+3. **Design & Desenvolvimento** → `/dsr/build`
+4. **Demonstração** → `/dsr/validate`
+5. **Avaliação** → `/dsr/evaluate`
+6. **Comunicação** → `/dsr/communicate`
+
+---
+
+**Selecione um agente para iniciar a colaboração científica:**
+- Digite `/dsr/investigate` para analisar problemas
+- Digite `/dsr/architect` para projetar soluções
+- Digite `/dsr/build` para implementar com precisão
+- Digite `/dsr/validate` para testar rigorosamente
+- Digite `/dsr/evaluate` para avaliar cientificamente
+- Digite `/dsr/communicate` para documentar achados
\ No newline at end of file
diff --git a/.claude/commands/dsr/architect.md b/.claude/commands/dsr/architect.md
new file mode 100644
index 0000000000000000000000000000000000000000..ec7e890e0ebe4dc0fbf3340c9db6ea189db21d70
--- /dev/null
+++ b/.claude/commands/dsr/architect.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Arquiteto para design de soluções"
+---
+
+🏗️ **Agente DSR Arquiteto Ativado**
+
+Estou agora operando como seu DSR Arquiteto, especializado em projetar soluções científicas seguindo os princípios do Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre buscar aprovação** antes da implementação do design
+- 📐 **Pensamento sistemático** de design
+- 🔄 **Rastreabilidade** do problema à solução
+- 🤝 **Decisões arquiteturais** colaborativas
+
+**Que desafio arquitetural devemos abordar?**
+
+Por favor, descreva a solução que você gostaria que eu projetasse ou o problema arquitetural a ser resolvido.
\ No newline at end of file
diff --git a/.claude/commands/dsr/build.md b/.claude/commands/dsr/build.md
new file mode 100644
index 0000000000000000000000000000000000000000..4e8ede6f8e12872388e4c43f753c9a370d312d1c
--- /dev/null
+++ b/.claude/commands/dsr/build.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Construtor para implementação precisa"
+---
+
+⚡ **Agente DSR Construtor Ativado**
+
+Estou agora operando como seu DSR Construtor, especializado em implementação cirúrgica seguindo a metodologia Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre solicitar permissão** antes de mudanças no código
+- 🎯 **Precisão cirúrgica** na implementação
+- 🧪 **Desenvolvimento orientado** por testes
+- 🤝 **Decisões de codificação** colaborativas
+
+**O que devemos construir juntos?**
+
+Por favor, descreva a feature, correção ou implementação que você gostaria que eu trabalhasse. Vou pedir permissão a cada passo.
\ No newline at end of file
diff --git a/.claude/commands/dsr/communicate.md b/.claude/commands/dsr/communicate.md
new file mode 100644
index 0000000000000000000000000000000000000000..2f2d0c9cc18dff11acb3f73964de3f56606ded01
--- /dev/null
+++ b/.claude/commands/dsr/communicate.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Comunicador para documentação científica"
+---
+
+📝 **Agente DSR Comunicador Ativado**
+
+Estou agora operando como seu DSR Comunicador, especializado em comunicação científica e documentação seguindo os princípios do Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre revisar documentação** antes da publicação
+- 📚 **Padrões de escrita** científica
+- 🎯 **Precisão técnica** e clareza
+- 🤝 **Desenvolvimento colaborativo** de conteúdo
+
+**O que precisa de documentação científica?**
+
+Por favor, descreva a documentação, relatório ou material de comunicação que você gostaria que eu criasse. Vou apresentar a estrutura para sua aprovação primeiro.
\ No newline at end of file
diff --git a/.claude/commands/dsr/evaluate.md b/.claude/commands/dsr/evaluate.md
new file mode 100644
index 0000000000000000000000000000000000000000..064800c01990edf46fc9556436329c572ea1e580
--- /dev/null
+++ b/.claude/commands/dsr/evaluate.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Avaliador para avaliação científica"
+---
+
+📊 **Agente DSR Avaliador Ativado**
+
+Estou agora operando como seu DSR Avaliador, especializado em avaliação científica e análise seguindo a metodologia Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre buscar consenso** sobre achados de avaliação
+- 📈 **Análise quantitativa & qualitativa**
+- 🎯 **Critérios de avaliação** objetivos
+- 🤝 **Validação colaborativa** das conclusões
+
+**O que requer avaliação científica?**
+
+Por favor, descreva o que você gostaria que eu avaliasse ou analisasse. Vou propor critérios de avaliação para sua aprovação.
\ No newline at end of file
diff --git a/.claude/commands/dsr/investigate.md b/.claude/commands/dsr/investigate.md
new file mode 100644
index 0000000000000000000000000000000000000000..07d023e0468711b4a12a88fdd4c0ccbae1c8b0db
--- /dev/null
+++ b/.claude/commands/dsr/investigate.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Investigador para identificação científica de problemas"
+---
+
+🔬 **Agente DSR Investigador Ativado**
+
+Estou agora operando como seu DSR Investigador, especializado em identificação científica de problemas seguindo a metodologia Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre pedir confirmação** antes de qualquer ação
+- 🎯 **Precisão científica** na análise de problemas
+- 📚 **Achados baseados em evidência**
+- 🤝 **Tomada de decisão colaborativa**
+
+**O que você gostaria que eu investigasse?**
+
+Por favor, descreva o problema de pesquisa ou área que você gostaria que eu analisasse cientificamente.
\ No newline at end of file
diff --git a/.claude/commands/dsr/validate.md b/.claude/commands/dsr/validate.md
new file mode 100644
index 0000000000000000000000000000000000000000..f2aad3947a8f70d985d7ce8119b18eb22b11444a
--- /dev/null
+++ b/.claude/commands/dsr/validate.md
@@ -0,0 +1,17 @@
+---
+description: "Ativar Agente DSR Validador para testes rigorosos"
+---
+
+🧪 **Agente DSR Validador Ativado**
+
+Estou agora operando como seu DSR Validador, especializado em testes rigorosos e validação seguindo os princípios do Design Science Research.
+
+**Meu Protocolo:**
+- ✅ **Sempre confirmar planos de teste** antes da execução
+- 📊 **Rigor estatístico** na validação
+- 🔍 **Procedimentos de teste** sistemáticos
+- 🤝 **Interpretação colaborativa** dos resultados
+
+**O que precisa de validação científica?**
+
+Por favor, descreva o que você gostaria que eu testasse ou validasse. Vou apresentar um plano de teste para sua aprovação primeiro.
\ No newline at end of file
diff --git a/.claude/commands/science.md b/.claude/commands/science.md
new file mode 100644
index 0000000000000000000000000000000000000000..e714eed1f2906d288dc1e99302d6acc053b8330c
--- /dev/null
+++ b/.claude/commands/science.md
@@ -0,0 +1,87 @@
+---
+description: "Scientific Development Methodology Guide"
+---
+
+# 🔬 **Scientific Development Partnership**
+
+**Following Design Science Research Methodology (Hevner & Peffers)**
+
+## 🧬 **Methodology Overview:**
+
+**Design Science Research** creates and evaluates IT artifacts intended to solve identified organizational problems. It emphasizes:
+
+- **Rigor**: Systematic, methodical approach
+- **Relevance**: Practical, real-world applicability
+- **Collaboration**: Partnership between researcher and practitioner
+- **Iteration**: Continuous improvement through evaluation
+
+## 📋 **Research Phases:**
+
+1. **Problem Identification & Motivation**
+ - Define research problem clearly
+ - Justify solution value
+ - *Agent: Investigator*
+
+2. **Define Objectives of Solution**
+ - Infer solution objectives from problem definition
+ - Quantify solution performance
+ - *Agent: Architect*
+
+3. **Design & Development**
+ - Create artifact (system, method, model)
+ - Demonstrate feasibility
+ - *Agent: Builder*
+
+4. **Demonstration**
+ - Use artifact to solve problem instances
+ - Show effectiveness through examples
+ - *Agent: Validator*
+
+5. **Evaluation**
+ - Measure artifact performance
+ - Compare to objectives
+ - *Agent: Evaluator*
+
+6. **Communication**
+ - Communicate problem importance
+ - Document artifact utility and effectiveness
+ - *Agent: Communicator*
+
+## 🎯 **Partnership Principles:**
+
+### **Scientific Rigor:**
+- Evidence-based decisions
+- Methodical approaches
+- Systematic documentation
+- Reproducible procedures
+
+### **Collaborative Approach:**
+- Always ask for confirmation
+- Seek consensus on decisions
+- Transparent reasoning
+- Joint problem-solving
+
+### **Precision & Efficiency:**
+- Surgical accuracy in implementation
+- Minimal, focused interventions
+- Quality over quantity
+- Test-driven development
+
+## 🤝 **How We Work Together:**
+
+1. **You define the research problem**
+2. **I ask clarifying questions**
+3. **We agree on objectives together**
+4. **I propose solutions for your approval**
+5. **We implement step-by-step with your confirmation**
+6. **We evaluate results collaboratively**
+7. **We document findings scientifically**
+
+## 🚀 **Getting Started:**
+
+Type `/dsr` to see available agents and begin scientific collaboration.
+
+Each agent follows the **confirmation protocol** - they will always ask for your permission before making changes or taking actions.
+
+---
+*Building the future of AI-powered government transparency through rigorous scientific methodology.*
\ No newline at end of file
diff --git a/.hfignore b/.hfignore
new file mode 100644
index 0000000000000000000000000000000000000000..39a8a08208493ccf0217282689644717741041ef
--- /dev/null
+++ b/.hfignore
@@ -0,0 +1,81 @@
+# HuggingFace Spaces ignore file
+# Exclude files not needed for deployment
+
+# Development files
+.git/
+.gitignore
+*.code-workspace
+.vscode/
+.idea/
+*.sublime-*
+
+# Testing files
+tests/
+pytest.ini
+htmlcov/
+.coverage
+.pytest_cache/
+
+# Documentation and planning
+docs/
+notebooks/
+*.ipynb
+migration_plan.md
+test_migration.py
+
+# Build files
+build/
+dist/
+*.egg-info/
+__pycache__/
+*.pyc
+*.pyo
+*.pyd
+.Python
+
+# Local environment
+venv/
+env/
+ENV/
+.env
+.env.local
+
+# Logs and temp files
+logs/
+*.log
+*.tmp
+*.temp
+*~
+
+# OS files
+.DS_Store
+Thumbs.db
+
+# Large datasets and models
+datasets/
+models/*.pkl
+models/*.joblib
+models/*.pt
+models/*.pth
+*.bin
+*.safetensors
+
+# Config files not needed in production
+configs/
+.env.example
+
+# Development requirements (use requirements-hf.txt instead)
+requirements.txt
+
+# Setup files not needed for docker deployment
+setup.py
+MANIFEST.in
+
+# CI/CD files
+.github/
+.gitlab-ci.yml
+
+# Backup files
+*.backup
+*.bak
+*.orig
\ No newline at end of file
diff --git a/.idea/.gitignore b/.idea/.gitignore
new file mode 100644
index 0000000000000000000000000000000000000000..13566b81b018ad684f3a35fee301741b2734c8f4
--- /dev/null
+++ b/.idea/.gitignore
@@ -0,0 +1,8 @@
+# Default ignored files
+/shelf/
+/workspace.xml
+# Editor-based HTTP Client requests
+/httpRequests/
+# Datasource local storage ignored files
+/dataSources/
+/dataSources.local.xml
diff --git a/.idea/cidadao.ai-models.iml b/.idea/cidadao.ai-models.iml
new file mode 100644
index 0000000000000000000000000000000000000000..d8b3f6cbf0c04e3481a87fcd0d588f490d9fdac7
--- /dev/null
+++ b/.idea/cidadao.ai-models.iml
@@ -0,0 +1,8 @@
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.idea/inspectionProfiles/Project_Default.xml b/.idea/inspectionProfiles/Project_Default.xml
new file mode 100644
index 0000000000000000000000000000000000000000..cce1d8640312734607371659b0515a2a303a421b
--- /dev/null
+++ b/.idea/inspectionProfiles/Project_Default.xml
@@ -0,0 +1,7 @@
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.idea/inspectionProfiles/profiles_settings.xml b/.idea/inspectionProfiles/profiles_settings.xml
new file mode 100644
index 0000000000000000000000000000000000000000..105ce2da2d6447d11dfe32bfb846c3d5b199fc99
--- /dev/null
+++ b/.idea/inspectionProfiles/profiles_settings.xml
@@ -0,0 +1,6 @@
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.idea/misc.xml b/.idea/misc.xml
new file mode 100644
index 0000000000000000000000000000000000000000..23231ce59d39f6bf94c41d32d86d36e2a543dad0
--- /dev/null
+++ b/.idea/misc.xml
@@ -0,0 +1,4 @@
+
+
+
+
\ No newline at end of file
diff --git a/.idea/modules.xml b/.idea/modules.xml
new file mode 100644
index 0000000000000000000000000000000000000000..9ce4d9184459215acb911b32560492717da53985
--- /dev/null
+++ b/.idea/modules.xml
@@ -0,0 +1,8 @@
+
+
+
+
+
+
+
+
\ No newline at end of file
diff --git a/.idea/vcs.xml b/.idea/vcs.xml
new file mode 100644
index 0000000000000000000000000000000000000000..35eb1ddfbbc029bcab630581847471d7f238ec53
--- /dev/null
+++ b/.idea/vcs.xml
@@ -0,0 +1,6 @@
+
+
+
+
+
+
\ No newline at end of file
diff --git a/CLAUDE.md b/CLAUDE.md
new file mode 100644
index 0000000000000000000000000000000000000000..3c8148b75da16c9665eaf59f3686cac4ced6faa2
--- /dev/null
+++ b/CLAUDE.md
@@ -0,0 +1,654 @@
+# 🏛️ CIDADÃO.AI - CONTEXTO GERAL DO PROJETO
+
+**⚠️ HEADER UNIVERSAL - NÃO REMOVER - Atualizado: Janeiro 2025**
+
+## 🎯 VISÃO GERAL DO ECOSSISTEMA
+
+O **Cidadão.AI** é um ecossistema de **4 repositórios especializados** que trabalham em conjunto para democratizar a transparência pública brasileira através de IA avançada:
+
+### 📦 REPOSITÓRIOS DO ECOSSISTEMA
+- **cidadao.ai-backend** → API + Sistema Multi-Agente + ML Pipeline
+- **cidadao.ai-frontend** → Interface Web + Internacionalização
+- **cidadao.ai-docs** → Hub de Documentação + Landing Page
+- **cidadao.ai-models** → Modelos IA + Pipeline MLOps (ESTE REPOSITÓRIO)
+
+### 🤖 SISTEMA MULTI-AGENTE (17 Agentes)
+1. **MasterAgent (Abaporu)** - Orquestração central com auto-reflexão
+2. **InvestigatorAgent** - Detecção de anomalias em dados públicos
+3. **AnalystAgent** - Análise de padrões e correlações
+4. **ReporterAgent** - Geração inteligente de relatórios
+5. **SecurityAuditorAgent** - Auditoria e compliance
+6. **CommunicationAgent** - Comunicação inter-agentes
+7. **CorruptionDetectorAgent** - Detecção de corrupção
+8. **PredictiveAgent** - Análise preditiva
+9. **VisualizationAgent** - Visualizações de dados
+10. **BonifacioAgent** - Contratos públicos
+11. **DandaraAgent** - Diversidade e inclusão
+12. **MachadoAgent** - Processamento de linguagem natural
+13. **SemanticRouter** - Roteamento inteligente
+14. **ContextMemoryAgent** - Sistema de memória
+15. **ETLExecutorAgent** - Processamento de dados
+16. **ObserverAgent** - Monitoramento
+17. **ValidatorAgent** - Validação de qualidade
+
+### 🏗️ ARQUITETURA TÉCNICA
+- **Score Geral**: 9.3/10 (Classe Enterprise)
+- **Backend**: FastAPI + Python 3.11+ + PostgreSQL + Redis + ChromaDB
+- **Frontend**: Next.js 15 + React 19 + TypeScript + Tailwind CSS 4
+- **Deploy**: Docker + Kubernetes + SSL + Monitoring
+- **IA**: LangChain + Transformers + OpenAI/Groq + Vector DBs
+
+### 🛡️ SEGURANÇA E AUDITORIA
+- **Multi-layer security** com middleware especializado
+- **JWT + OAuth2 + API Key** authentication
+- **Audit trail** completo com severity levels
+- **Rate limiting** + **CORS** + **SSL termination**
+
+### 🎯 MISSÃO E IMPACTO
+- **Democratizar** acesso a análises de dados públicos
+- **Detectar anomalias** e irregularidades automaticamente
+- **Empoderar cidadãos** com informação clara e auditável
+- **Fortalecer transparência** governamental via IA ética
+
+### 📊 STATUS DO PROJETO
+- **Versão**: 1.0.0 (Production-Ready)
+- **Score Técnico**: 9.3/10
+- **Cobertura de Testes**: 23.6% (Target: >80%)
+- **Deploy**: Kubernetes + Vercel + HuggingFace Spaces
+
+---
+
+# CLAUDE.md - MODELOS IA
+
+Este arquivo fornece orientações para o Claude Code ao trabalhar com os modelos de IA e pipeline MLOps do Cidadão.AI.
+
+## 🤖 Visão Geral dos Modelos IA
+
+**Cidadão.AI Models** é o repositório responsável pelos modelos de machine learning, pipeline MLOps e infraestrutura de IA que alimenta o sistema multi-agente. Este repositório gerencia treinamento, versionamento, deploy e monitoramento dos modelos especializados em transparência pública.
+
+**Status Atual**: **Pipeline MLOps em Desenvolvimento** - Infraestrutura para modelos personalizados, integração com HuggingFace Hub e pipeline de treinamento automatizado.
+
+## 🏗️ Análise Arquitetural Modelos IA
+
+### **Score Geral dos Modelos: 7.8/10** (Pipeline em Construção)
+
+O **Repositório de Modelos Cidadão.AI** representa uma **base sólida para MLOps** especializado em análise de transparência pública. O sistema está preparado para hospedar modelos customizados e integrar-se com o ecossistema de agentes.
+
+### 📊 Métricas Técnicas Modelos
+- **Framework**: PyTorch + Transformers + HuggingFace
+- **MLOps**: MLflow + DVC + Weights & Biases
+- **Deploy**: HuggingFace Spaces + Docker containers
+- **Monitoring**: Model performance tracking + drift detection
+- **Storage**: HuggingFace Hub + cloud storage integration
+- **CI/CD**: Automated training + testing + deployment
+
+### 🚀 Componentes Planejados (Score 7-8/10)
+- **Model Registry**: 7.8/10 - HuggingFace Hub integration
+- **Training Pipeline**: 7.5/10 - Automated training workflow
+- **Model Serving**: 7.7/10 - FastAPI + HuggingFace Spaces
+- **Monitoring**: 7.3/10 - Performance tracking system
+- **Version Control**: 8.0/10 - Git + DVC + HuggingFace
+
+### 🎯 Componentes em Desenvolvimento (Score 6-7/10)
+- **Custom Models**: 6.8/10 - Domain-specific fine-tuning
+- **Data Pipeline**: 6.5/10 - ETL for training data
+- **Evaluation**: 6.7/10 - Automated model evaluation
+- **A/B Testing**: 6.3/10 - Model comparison framework
+
+## 🧠 Arquitetura de Modelos
+
+### **Modelos Especializados Planejados**
+```python
+# Taxonomy dos Modelos Cidadão.AI
+models_taxonomy = {
+ "corruption_detection": {
+ "type": "classification",
+ "base_model": "bert-base-multilingual-cased",
+ "specialization": "Brazilian Portuguese + government documents",
+ "use_case": "Detect corruption indicators in contracts"
+ },
+ "anomaly_detection": {
+ "type": "regression + classification",
+ "base_model": "Custom ensemble",
+ "specialization": "Financial data patterns",
+ "use_case": "Identify unusual spending patterns"
+ },
+ "entity_extraction": {
+ "type": "NER",
+ "base_model": "roberta-large",
+ "specialization": "Government entities + Brazilian names",
+ "use_case": "Extract companies, people, organizations"
+ },
+ "sentiment_analysis": {
+ "type": "classification",
+ "base_model": "distilbert-base-uncased",
+ "specialization": "Public opinion on transparency",
+ "use_case": "Analyze citizen feedback sentiment"
+ },
+ "summarization": {
+ "type": "seq2seq",
+ "base_model": "t5-base",
+ "specialization": "Government reports + legal documents",
+ "use_case": "Generate executive summaries"
+ }
+}
+```
+
+### **Pipeline MLOps Architecture**
+```yaml
+# MLOps Workflow
+stages:
+ data_collection:
+ - Portal da Transparência APIs
+ - Government databases
+ - Public procurement data
+ - Historical investigations
+
+ data_preprocessing:
+ - Data cleaning & validation
+ - Privacy anonymization
+ - Feature engineering
+ - Data augmentation
+
+ model_training:
+ - Hyperparameter optimization
+ - Cross-validation
+ - Ensemble methods
+ - Transfer learning
+
+ model_evaluation:
+ - Performance metrics
+ - Fairness evaluation
+ - Bias detection
+ - Interpretability analysis
+
+ model_deployment:
+ - HuggingFace Spaces
+ - Container deployment
+ - API endpoints
+ - Model serving
+
+ monitoring:
+ - Model drift detection
+ - Performance degradation
+ - Data quality monitoring
+ - Usage analytics
+```
+
+## 🔬 Modelos de IA Especializados
+
+### **1. Corruption Detection Model**
+```python
+# Modelo especializado em detecção de corrupção
+class CorruptionDetector:
+ base_model: "bert-base-multilingual-cased"
+ fine_tuned_on: "Brazilian government contracts + known corruption cases"
+
+ features:
+ - Contract language analysis
+ - Pricing anomaly detection
+ - Vendor relationship patterns
+ - Temporal irregularities
+
+ metrics:
+ - Precision: >85%
+ - Recall: >80%
+ - F1-Score: >82%
+ - False Positive Rate: <5%
+```
+
+### **2. Anomaly Detection Ensemble**
+```python
+# Ensemble para detecção de anomalias financeiras
+class AnomalyDetector:
+ models:
+ - IsolationForest: "Outlier detection"
+ - LSTM: "Temporal pattern analysis"
+ - Autoencoder: "Reconstruction error"
+ - Random Forest: "Feature importance"
+
+ features:
+ - Amount deviation from median
+ - Vendor concentration
+ - Seasonal patterns
+ - Geographic distribution
+
+ output:
+ - Anomaly score (0-1)
+ - Confidence interval
+ - Explanation vector
+ - Risk category
+```
+
+### **3. Entity Recognition (NER)**
+```python
+# NER especializado para entidades governamentais
+class GovernmentNER:
+ base_model: "roberta-large"
+ entities:
+ - ORGANIZATION: "Ministérios, órgãos, empresas"
+ - PERSON: "Servidores, políticos, empresários"
+ - LOCATION: "Estados, municípios, endereços"
+ - CONTRACT: "Números de contratos, licitações"
+ - MONEY: "Valores monetários, moedas"
+ - DATE: "Datas de contratos, vigências"
+
+ brazilian_specialization:
+ - CPF/CNPJ recognition
+ - Brazilian address patterns
+ - Government terminology
+ - Legal document structure
+```
+
+## 🚀 HuggingFace Integration
+
+### **Model Hub Strategy**
+```python
+# HuggingFace Hub Organization
+organization: "cidadao-ai"
+models:
+ - "cidadao-ai/corruption-detector-pt"
+ - "cidadao-ai/anomaly-detector-financial"
+ - "cidadao-ai/ner-government-entities"
+ - "cidadao-ai/sentiment-transparency"
+ - "cidadao-ai/summarization-reports"
+
+spaces:
+ - "cidadao-ai/corruption-demo"
+ - "cidadao-ai/anomaly-dashboard"
+ - "cidadao-ai/transparency-analyzer"
+```
+
+### **Model Cards Template**
+```markdown
+# Model Card: Cidadão.AI Corruption Detector
+
+## Model Description
+- **Developed by**: Cidadão.AI Team
+- **Model type**: BERT-based binary classifier
+- **Language**: Portuguese (Brazil)
+- **License**: MIT
+
+## Training Data
+- **Sources**: Portal da Transparência + curated corruption cases
+- **Size**: 100K+ government contracts
+- **Preprocessing**: Anonymization + cleaning + augmentation
+
+## Evaluation
+- **Test Set**: 10K held-out contracts
+- **Metrics**: Precision: 87%, Recall: 83%, F1: 85%
+- **Bias Analysis**: Evaluated across regions + contract types
+
+## Ethical Considerations
+- **Intended Use**: Transparency analysis, not legal evidence
+- **Limitations**: May have bias toward certain contract types
+- **Risks**: False positives could damage reputations
+```
+
+## 🛠️ MLOps Pipeline
+
+### **Training Infrastructure**
+```yaml
+# training-pipeline.yml
+name: Model Training Pipeline
+on:
+ schedule:
+ - cron: '0 2 * * 0' # Weekly retraining
+ workflow_dispatch:
+
+jobs:
+ data_preparation:
+ runs-on: ubuntu-latest
+ steps:
+ - name: Fetch latest data
+ - name: Validate data quality
+ - name: Preprocess & augment
+
+ model_training:
+ runs-on: gpu-runner
+ steps:
+ - name: Hyperparameter optimization
+ - name: Train model
+ - name: Evaluate performance
+
+ model_deployment:
+ runs-on: ubuntu-latest
+ if: model_performance > threshold
+ steps:
+ - name: Upload to HuggingFace Hub
+ - name: Update model registry
+ - name: Deploy to production
+```
+
+### **Model Monitoring Dashboard**
+```python
+# Métricas de monitoramento
+monitoring_metrics = {
+ "performance": {
+ "accuracy": "Real-time accuracy tracking",
+ "latency": "Response time monitoring",
+ "throughput": "Requests per second",
+ "error_rate": "Failed prediction rate"
+ },
+ "data_drift": {
+ "feature_drift": "Input distribution changes",
+ "label_drift": "Output distribution changes",
+ "concept_drift": "Relationship changes"
+ },
+ "business": {
+ "investigations_triggered": "Anomalies detected",
+ "false_positive_rate": "User feedback tracking",
+ "citizen_satisfaction": "User experience metrics"
+ }
+}
+```
+
+## 🧪 Experimentação e Avaliação
+
+### **Experiment Tracking**
+```python
+# MLflow + Weights & Biases integration
+import mlflow
+import wandb
+
+def train_model(config):
+ with mlflow.start_run():
+ wandb.init(project="cidadao-ai", config=config)
+
+ # Log hyperparameters
+ mlflow.log_params(config)
+ wandb.config.update(config)
+
+ # Training loop
+ for epoch in range(config.epochs):
+ metrics = train_epoch(model, train_loader)
+
+ # Log metrics
+ mlflow.log_metrics(metrics, step=epoch)
+ wandb.log(metrics)
+
+ # Log model artifacts
+ mlflow.pytorch.log_model(model, "model")
+ wandb.save("model.pt")
+```
+
+### **A/B Testing Framework**
+```python
+# Framework para testes A/B de modelos
+class ModelABTest:
+ def __init__(self, model_a, model_b, traffic_split=0.5):
+ self.model_a = model_a
+ self.model_b = model_b
+ self.traffic_split = traffic_split
+
+ def predict(self, input_data, user_id):
+ # Route traffic based on user_id hash
+ if hash(user_id) % 100 < self.traffic_split * 100:
+ result = self.model_a.predict(input_data)
+ self.log_prediction("model_a", result, user_id)
+ else:
+ result = self.model_b.predict(input_data)
+ self.log_prediction("model_b", result, user_id)
+
+ return result
+```
+
+## 📊 Datasets e Treinamento
+
+### **Datasets Especializados**
+```python
+# Datasets para treinamento
+datasets = {
+ "transparency_contracts": {
+ "source": "Portal da Transparência API",
+ "size": "500K+ contracts",
+ "format": "JSON + PDF text extraction",
+ "labels": "Manual annotation + expert review"
+ },
+ "corruption_cases": {
+ "source": "Historical investigations + court records",
+ "size": "10K+ labeled cases",
+ "format": "Structured data + documents",
+ "labels": "Binary classification + severity"
+ },
+ "financial_anomalies": {
+ "source": "Government spending data",
+ "size": "1M+ transactions",
+ "format": "Tabular data",
+ "labels": "Statistical outliers + domain expert"
+ }
+}
+```
+
+### **Data Preprocessing Pipeline**
+```python
+# Pipeline de preprocessamento
+class DataPreprocessor:
+ def __init__(self):
+ self.tokenizer = AutoTokenizer.from_pretrained("bert-base-multilingual-cased")
+ self.anonymizer = GovernmentDataAnonymizer()
+
+ def preprocess_contract(self, contract_text):
+ # 1. Anonymize sensitive information
+ anonymized = self.anonymizer.anonymize(contract_text)
+
+ # 2. Clean and normalize text
+ cleaned = self.clean_text(anonymized)
+
+ # 3. Tokenize for model input
+ tokens = self.tokenizer(
+ cleaned,
+ max_length=512,
+ truncation=True,
+ padding=True,
+ return_tensors="pt"
+ )
+
+ return tokens
+```
+
+## 🔄 Integração com Backend
+
+### **Model Serving API**
+```python
+# FastAPI endpoints para servir modelos
+from fastapi import FastAPI
+from transformers import pipeline
+
+app = FastAPI()
+
+# Load models
+corruption_detector = pipeline(
+ "text-classification",
+ model="cidadao-ai/corruption-detector-pt"
+)
+
+anomaly_detector = joblib.load("models/anomaly_detector.pkl")
+
+@app.post("/analyze/corruption")
+async def detect_corruption(contract_text: str):
+ result = corruption_detector(contract_text)
+ return {
+ "prediction": result[0]["label"],
+ "confidence": result[0]["score"],
+ "model_version": "v1.0.0"
+ }
+
+@app.post("/analyze/anomaly")
+async def detect_anomaly(financial_data: dict):
+ features = extract_features(financial_data)
+ anomaly_score = anomaly_detector.predict(features)
+ return {
+ "anomaly_score": float(anomaly_score),
+ "is_anomaly": anomaly_score > 0.7,
+ "explanation": generate_explanation(features)
+ }
+```
+
+### **Agent Integration**
+```python
+# Integração com sistema multi-agente
+class ModelService:
+ def __init__(self):
+ self.models = {
+ "corruption": self.load_corruption_model(),
+ "anomaly": self.load_anomaly_model(),
+ "ner": self.load_ner_model()
+ }
+
+ async def analyze_for_agent(self, agent_name: str, data: dict):
+ if agent_name == "InvestigatorAgent":
+ return await self.detect_anomalies(data)
+ elif agent_name == "CorruptionDetectorAgent":
+ return await self.detect_corruption(data)
+ elif agent_name == "AnalystAgent":
+ return await self.extract_entities(data)
+```
+
+## 🔒 Ética e Governança
+
+### **Responsible AI Principles**
+```python
+# Princípios de IA Responsável
+class ResponsibleAI:
+ principles = {
+ "transparency": "Explicabilidade em todas as decisões",
+ "fairness": "Avaliação de viés em grupos demográficos",
+ "privacy": "Anonimização de dados pessoais",
+ "accountability": "Auditoria e rastreabilidade",
+ "robustness": "Teste contra adversarial attacks"
+ }
+
+ def evaluate_bias(self, model, test_data, protected_attributes):
+ """Avalia viés do modelo em grupos protegidos"""
+ bias_metrics = {}
+ for attr in protected_attributes:
+ group_metrics = self.compute_group_metrics(model, test_data, attr)
+ bias_metrics[attr] = group_metrics
+ return bias_metrics
+```
+
+### **Model Interpretability**
+```python
+# Ferramentas de interpretabilidade
+from lime.lime_text import LimeTextExplainer
+from shap import Explainer
+
+class ModelExplainer:
+ def __init__(self, model):
+ self.model = model
+ self.lime_explainer = LimeTextExplainer()
+ self.shap_explainer = Explainer(model)
+
+ def explain_prediction(self, text, method="lime"):
+ if method == "lime":
+ explanation = self.lime_explainer.explain_instance(
+ text, self.model.predict_proba
+ )
+ elif method == "shap":
+ explanation = self.shap_explainer(text)
+
+ return explanation
+```
+
+## 📋 Roadmap Modelos IA
+
+### **Curto Prazo (1-2 meses)**
+1. **Setup MLOps Pipeline**: MLflow + DVC + CI/CD
+2. **Corruption Detection Model**: Fine-tune BERT para português
+3. **HuggingFace Integration**: Upload initial models
+4. **Basic Monitoring**: Performance tracking dashboard
+
+### **Médio Prazo (3-6 meses)**
+1. **Anomaly Detection Ensemble**: Multiple algorithms
+2. **NER Government Entities**: Custom entity recognition
+3. **Model A/B Testing**: Production experimentation
+4. **Advanced Monitoring**: Drift detection + alerting
+
+### **Longo Prazo (6+ meses)**
+1. **Custom Architecture**: Domain-specific model architectures
+2. **Federated Learning**: Privacy-preserving training
+3. **AutoML Pipeline**: Automated model selection
+4. **Edge Deployment**: Local model inference
+
+## ⚠️ Áreas para Melhoria
+
+### **Priority 1: Data Pipeline**
+- **Data Collection**: Automated data ingestion
+- **Data Quality**: Validation + cleaning pipelines
+- **Labeling**: Active learning + human-in-the-loop
+- **Privacy**: Advanced anonymization techniques
+
+### **Priority 2: Model Development**
+- **Custom Models**: Domain-specific architectures
+- **Transfer Learning**: Portuguese government domain
+- **Ensemble Methods**: Model combination strategies
+- **Optimization**: Model compression + acceleration
+
+### **Priority 3: MLOps Maturity**
+- **CI/CD**: Automated testing + deployment
+- **Monitoring**: Comprehensive drift detection
+- **Experimentation**: A/B testing framework
+- **Governance**: Model audit + compliance
+
+## 🎯 Métricas de Sucesso
+
+### **Technical Metrics**
+- **Model Performance**: F1 > 85% for all models
+- **Inference Latency**: <200ms response time
+- **Deployment Success**: >99% uptime
+- **Data Pipeline**: <1% data quality issues
+
+### **Business Metrics**
+- **Anomalies Detected**: 100+ monthly
+- **False Positive Rate**: <5%
+- **User Satisfaction**: >80% positive feedback
+- **Investigation Success**: >70% actionable insights
+
+## 🔧 Comandos de Desenvolvimento
+
+### **Model Training**
+```bash
+# Train corruption detection model
+python train_corruption_detector.py --config configs/corruption_bert.yaml
+
+# Evaluate model performance
+python evaluate_model.py --model corruption_detector --test_data data/test.json
+
+# Upload to HuggingFace Hub
+python upload_to_hub.py --model_path models/corruption_detector --repo_name cidadao-ai/corruption-detector-pt
+```
+
+### **Monitoring**
+```bash
+# Check model drift
+python monitor_drift.py --model corruption_detector --window 7d
+
+# Generate performance report
+python generate_report.py --models all --period monthly
+```
+
+## 📝 Considerações Técnicas
+
+### **Compute Requirements**
+- **Training**: GPU-enabled instances (V100/A100)
+- **Inference**: CPU instances sufficient for most models
+- **Storage**: Cloud storage for datasets + model artifacts
+- **Monitoring**: Real-time metrics collection
+
+### **Security**
+- **Model Protection**: Encrypted model artifacts
+- **API Security**: Authentication + rate limiting
+- **Data Privacy**: LGPD compliance + anonymization
+- **Audit Trail**: Complete lineage tracking
+
+### **Scalability**
+- **Horizontal Scaling**: Load balancer + multiple instances
+- **Model Versioning**: Backward compatibility
+- **Cache Strategy**: Redis for frequent predictions
+- **Batch Processing**: Async inference for large datasets
+
+---
+
+**Models Status**: Pipeline em desenvolvimento com infraestrutura sólida para modelos especializados.
+**Next Update**: Implementação do primeiro modelo de detecção de corrupção e pipeline MLOps completo.
\ No newline at end of file
diff --git "a/Cidad\303\243o IA Models Arquitetura.md" "b/Cidad\303\243o IA Models Arquitetura.md"
new file mode 100644
index 0000000000000000000000000000000000000000..36da4190f59febf84149df4656d410de6554b108
--- /dev/null
+++ "b/Cidad\303\243o IA Models Arquitetura.md"
@@ -0,0 +1,735 @@
+# 🤖 Cidadão.IA Models - Hub de Modelos de IA Governamental
+
+## 🎯 **Visão Geral do Projeto**
+
+O repositório `cidadao.ai-models` é o **hub especializado de modelos de IA/ML** para o ecossistema Cidadão.IA, fornecendo modelos de machine learning de classe mundial, otimizados e prontos para produção via **HuggingFace Models**, integrados seamlessly com o backend principal.
+
+### 🔗 **Integração com Ecossistema Cidadão.IA**
+- **🏛️ Backend Principal**: [cidadao.ai-backend](https://huggingface.co/spaces/neural-thinker/cidadao.ai-backend) (HuggingFace Spaces)
+- **🤖 Modelos de IA**: [cidadao.ai-models](https://github.com/anderson-ufrj/cidadao.ai-models) → HuggingFace Models
+- **⚡ Inferência**: Modelos servidos via HF Hub, processados no backend Space
+
+---
+
+## 🧠 **Visão & Missão**
+
+**Visão**: Criar um repositório de modelos de IA de classe mundial, modular, que democratize o acesso a insights de transparência governamental através de machine learning avançado.
+
+**Missão**: Desenvolver, manter e distribuir modelos de IA especializados para:
+- Detecção de anomalias em gastos públicos
+- Verificação de conformidade legal
+- Avaliação de risco financeiro
+- Reconhecimento de padrões de corrupção
+- Análise temporal de dados governamentais
+
+---
+
+## 📐 **Princípios Arquiteturais**
+
+### **1. Modularidade em Primeiro Lugar**
+- Cada modelo é um componente autônomo e versionado
+- Separação clara entre treinamento, inferência e utilitários
+- Arquitetura baseada em plugins para fácil integração
+
+### **2. Escalabilidade por Design**
+- Escalonamento horizontal via containerização
+- Serving de modelos pronto para microserviços
+- Estratégias de deploy agnósticas à cloud
+
+### **3. Excelência em Produção**
+- Versionamento e registry de modelos nível enterprise
+- Testes e validação abrangentes
+- Integração com pipeline MLOps
+- Observabilidade e monitoramento integrados
+
+### **4. Integração HuggingFace Nativa**
+- **HuggingFace Models**: Deploy direto via HF Hub para distribuição global
+- **Model Cards**: Documentação técnica automática com métricas e exemplos
+- **Transformers**: Compatibilidade nativa com biblioteca transformers
+- **ONNX Export**: Otimização cross-platform para produção
+- **Zero Infraestrutura**: Aproveitamento da CDN global do HuggingFace
+
+---
+
+## 🏛️ **Arquitetura do Repositório**
+
+```
+cidadao.ia-models/
+├── 📁 modelos/ # Modelos prontos para produção
+│ ├── 📁 cidadao-bertimbau-ner-v1/ # Reconhecimento de Entidades Nomeadas
+│ ├── 📁 cidadao-detector-anomalias-v2/ # Detecção de Anomalias
+│ ├── 📁 cidadao-classificador-risco-v1/ # Avaliação de Risco Financeiro
+│ ├── 📁 cidadao-juiz-conformidade-v1/ # Conformidade Legal
+│ └── 📁 cidadao-analisador-espectral-v1/ # Análise de Padrões Temporais
+│
+├── 📁 experimentos/ # Pesquisa & prototipagem
+│ ├── 📁 notebooks/ # Notebooks Jupyter de pesquisa
+│ ├── 📁 prototipos/ # Modelos experimentais
+│ └── 📁 benchmarks/ # Comparações de performance
+│
+├── 📁 treinamento/ # Infraestrutura de treinamento
+│ ├── 📁 pipelines/ # Pipelines MLOps de treinamento
+│ ├── 📁 datasets/ # Utilitários de processamento de dados
+│ └── 📁 configs/ # Configurações de treinamento
+│
+├── 📁 inferencia/ # Serving de produção
+│ ├── 📁 pipelines/ # Pipelines de inferência
+│ ├── 📁 api/ # APIs de serving de modelos
+│ └── 📁 lote/ # Processamento em lote
+│
+├── 📁 utils/ # Utilitários compartilhados
+│ ├── 📁 preprocessamento/ # Pré-processamento de dados
+│ ├── 📁 pos_processamento/ # Processamento de saída
+│ ├── 📁 metricas/ # Métricas de avaliação
+│ └── 📁 visualizacao/ # Visualização de análises
+│
+├── 📁 deploy/ # Artefatos de deploy
+│ ├── 📁 docker/ # Definições de containers
+│ ├── 📁 kubernetes/ # Manifestos K8s
+│ └── 📁 cloud/ # Configs específicas de cloud
+│
+├── 📁 testes/ # Testes abrangentes
+│ ├── 📁 unitarios/ # Testes unitários
+│ ├── 📁 integracao/ # Testes de integração
+│ └── 📁 performance/ # Testes de performance
+│
+├── 📁 docs/ # Documentação
+│ ├── 📁 cartoes_modelos/ # Documentação dos modelos
+│ ├── 📁 tutoriais/ # Tutoriais de uso
+│ └── 📁 api/ # Documentação da API
+│
+├── 📄 registro_modelos.json # Registry central de modelos
+├── 📄 requirements.txt # Dependências Python
+├── 📄 setup.py # Instalação do pacote
+├── 📄 Dockerfile # Container de produção
+├── 📄 docker-compose.yml # Ambiente de desenvolvimento
+└── 📄 README.md # Visão geral do projeto
+```
+
+---
+
+## 🚀 **Taxonomia & Convenção de Nomenclatura de Modelos**
+
+### **Padrão de Nomenclatura**: `cidadao-{dominio}-{arquitetura}-v{versao}`
+
+| Domínio | Arquitetura | Exemplo | Propósito |
+|---------|-------------|---------|-----------|
+| `bertimbau-ner` | Transformer | `cidadao-bertimbau-ner-v1` | Reconhecimento de Entidades Nomeadas |
+| `detector-anomalias` | Ensemble | `cidadao-detector-anomalias-v2` | Detecção de anomalias em gastos |
+| `classificador-risco` | BERT | `cidadao-classificador-risco-v1` | Avaliação de risco financeiro |
+| `juiz-conformidade` | RoBERTa | `cidadao-juiz-conformidade-v1` | Verificação de conformidade legal |
+| `analisador-espectral` | Processamento de Sinais | `cidadao-analisador-espectral-v1` | Análise de padrões temporais |
+| `modelador-topicos` | BERTopic | `cidadao-modelador-topicos-v1` | Modelagem de tópicos de documentos |
+| `roteador-semantico` | Sentence-BERT | `cidadao-roteador-semantico-v1` | Roteamento de consultas |
+
+---
+
+## 📋 **Roadmap de Implementação**
+
+### **Fase 1: Configuração da Fundação** ⏱️ *2 semanas*
+
+#### **Semana 1: Estrutura do Repositório**
+- [ ] **Dia 1-2**: Criar estrutura base de diretórios
+- [ ] **Dia 3-4**: Configurar pipeline CI/CD (GitHub Actions)
+- [ ] **Dia 5-7**: Configurar ambiente de desenvolvimento (Docker, requirements)
+
+#### **Semana 2: Infraestrutura Core**
+- [ ] **Dia 1-3**: Implementar sistema de registry de modelos
+- [ ] **Dia 4-5**: Criar classes base de modelos e interfaces
+- [ ] **Dia 6-7**: Configurar framework de testes e quality gates
+
+### **Fase 2: Migração & Aprimoramento de Modelos** ⏱️ *4 semanas*
+
+#### **Semana 1: Modelos de Detecção de Anomalias**
+- [ ] **Dia 1-2**: Extrair `cidadao_model.py` → `cidadao-detector-anomalias-v2`
+- [ ] **Dia 3-4**: Criar model card e documentação
+- [ ] **Dia 5**: Implementar pipeline de inferência
+- [ ] **Dia 6-7**: Adicionar export ONNX e otimização
+
+#### **Semana 2: Modelos NER & Entidades**
+- [ ] **Dia 1-2**: Implementar `cidadao-bertimbau-ner-v1`
+- [ ] **Dia 3-4**: Criar pipeline de extração de entidades
+- [ ] **Dia 5**: Adicionar suporte multilíngue (Português/Inglês)
+- [ ] **Dia 6-7**: Otimização de performance e cache
+
+#### **Semana 3: Modelos de Risco & Conformidade**
+- [ ] **Dia 1-2**: Extrair classificação de risco → `cidadao-classificador-risco-v1`
+- [ ] **Dia 3-4**: Implementar verificação de conformidade → `cidadao-juiz-conformidade-v1`
+- [ ] **Dia 5**: Criar sistema unificado de pontuação
+- [ ] **Dia 6-7**: Adicionar recursos de explicabilidade (SHAP/LIME)
+
+#### **Semana 4: Analytics Avançadas**
+- [ ] **Dia 1-2**: Extrair análise espectral → `cidadao-analisador-espectral-v1`
+- [ ] **Dia 3-4**: Implementar modelagem de tópicos → `cidadao-modelador-topicos-v1`
+- [ ] **Dia 5**: Criar roteamento semântico → `cidadao-roteador-semantico-v1`
+- [ ] **Dia 6-7**: Testes de integração e validação de performance
+
+### **Fase 3: Prontidão para Produção** ⏱️ *3 semanas*
+
+#### **Semana 1: Infraestrutura de API & Serving**
+- [ ] **Dia 1-2**: Implementar endpoints FastAPI de serving de modelos
+- [ ] **Dia 3-4**: Criar pipelines de processamento em lote
+- [ ] **Dia 5**: Adicionar health checks e monitoramento
+- [ ] **Dia 6-7**: Implementar rate limiting e segurança
+
+#### **Semana 2: Infraestrutura de Treinamento**
+- [ ] **Dia 1-2**: Criar pipelines MLOps de treinamento
+- [ ] **Dia 3-4**: Implementar tracking de experimentos (MLflow/Weights & Biases)
+- [ ] **Dia 5**: Adicionar tuning automatizado de hiperparâmetros
+- [ ] **Dia 6-7**: Criar workflows de validação e aprovação de modelos
+
+#### **Semana 3: Deploy & DevOps**
+- [ ] **Dia 1-2**: Containerizar todos os modelos (Docker)
+- [ ] **Dia 3-4**: Criar manifestos de deploy Kubernetes
+- [ ] **Dia 5**: Implementar estratégia de deploy blue-green
+- [ ] **Dia 6-7**: Adicionar observabilidade (Prometheus, Grafana)
+
+### **Fase 4: Recursos Avançados** ⏱️ *3 semanas*
+
+#### **Semana 1: Integração Model Hub**
+- [ ] **Dia 1-2**: Integrar com Hugging Face Hub
+- [ ] **Dia 3-4**: Criar pipeline automatizado de publicação de modelos
+- [ ] **Dia 5**: Implementar versionamento de modelos e testes A/B
+- [ ] **Dia 6-7**: Adicionar governança e workflows de aprovação de modelos
+
+#### **Semana 2: Otimização de Performance**
+- [ ] **Dia 1-2**: Implementar quantização e pruning de modelos
+- [ ] **Dia 3-4**: Adicionar aceleração GPU e otimização CUDA
+- [ ] **Dia 5**: Criar cache e memoização de modelos
+- [ ] **Dia 6-7**: Implementar inferência distribuída
+
+#### **Semana 3: Analytics & Monitoramento**
+- [ ] **Dia 1-2**: Criar dashboards de performance de modelos
+- [ ] **Dia 3-4**: Implementar detecção de drift e alertas
+- [ ] **Dia 5**: Adicionar tracking de métricas de negócio
+- [ ] **Dia 6-7**: Criar triggers automatizados de retreinamento de modelos
+
+---
+
+## 🧩 **Especificações de Interface de Modelos**
+
+### **Interface Padrão de Modelos**
+
+```python
+from abc import ABC, abstractmethod
+from typing import Dict, List, Any, Optional
+from dataclasses import dataclass
+import torch
+from transformers import PreTrainedModel
+
+@dataclass
+class MetadadosModelo:
+ nome: str
+ versao: str
+ descricao: str
+ autor: str
+ criado_em: str
+ tipo_modelo: str
+ schema_entrada: Dict[str, Any]
+ schema_saida: Dict[str, Any]
+ metricas: Dict[str, float]
+ tags: List[str]
+
+class CidadaoModeloBase(ABC):
+ """Interface base para todos os modelos Cidadão.IA"""
+
+ def __init__(self, caminho_modelo: str, config: Optional[Dict] = None):
+ self.caminho_modelo = caminho_modelo
+ self.config = config or {}
+ self.metadados = self.carregar_metadados()
+ self.modelo = self.carregar_modelo()
+
+ @abstractmethod
+ def carregar_modelo(self) -> Any:
+ """Carregar o modelo treinado"""
+ pass
+
+ @abstractmethod
+ def predizer(self, entradas: Dict[str, Any]) -> Dict[str, Any]:
+ """Fazer predições nos dados de entrada"""
+ pass
+
+ @abstractmethod
+ def predizer_lote(self, entradas: List[Dict[str, Any]]) -> List[Dict[str, Any]]:
+ """Fazer predições em lote"""
+ pass
+
+ def validar_entrada(self, entradas: Dict[str, Any]) -> bool:
+ """Validar entrada contra schema"""
+ pass
+
+ def explicar(self, entradas: Dict[str, Any]) -> Dict[str, Any]:
+ """Fornecer explicações do modelo"""
+ pass
+
+ def carregar_metadados(self) -> MetadadosModelo:
+ """Carregar metadados do modelo"""
+ pass
+```
+
+### **Interfaces Específicas de Modelos**
+
+#### **Interface de Detecção de Anomalias**
+```python
+class CidadaoDetectorAnomalias(CidadaoModeloBase):
+ def predizer(self, entradas: Dict[str, Any]) -> Dict[str, Any]:
+ """
+ Detectar anomalias em dados de transparência
+
+ Args:
+ entradas: {
+ "dados_transacao": List[Dict],
+ "contexto": Optional[Dict]
+ }
+
+ Returns:
+ {
+ "score_anomalia": float,
+ "tipo_anomalia": str,
+ "confianca": float,
+ "explicacao": Dict
+ }
+ """
+ pass
+```
+
+#### **Interface NER**
+```python
+class CidadaoBERTimauNER(CidadaoModeloBase):
+ def predizer(self, entradas: Dict[str, Any]) -> Dict[str, Any]:
+ """
+ Extrair entidades nomeadas de documentos públicos brasileiros
+
+ Args:
+ entradas: {
+ "texto": str,
+ "idioma": Optional[str] = "pt"
+ }
+
+ Returns:
+ {
+ "entidades": List[Dict],
+ "scores_confianca": List[float],
+ "tempo_processamento": float
+ }
+ """
+ pass
+```
+
+---
+
+## 📊 **Sistema de Registry de Modelos**
+
+### **Estrutura do registro_modelos.json**
+
+```json
+{
+ "versao": "1.0.0",
+ "ultima_atualizacao": "2025-07-22T10:00:00Z",
+ "modelos": {
+ "cidadao-detector-anomalias-v2": {
+ "metadados": {
+ "nome": "Cidadão.IA Detector de Anomalias",
+ "versao": "2.0.0",
+ "descricao": "Detecção avançada de anomalias para dados de transparência governamental",
+ "autor": "Anderson Henrique",
+ "criado_em": "2025-07-22T10:00:00Z",
+ "tipo_modelo": "detecção_anomalias",
+ "framework": "pytorch",
+ "modelo_base": "bert-base-portuguese-cased",
+ "tarefa": "classificacao_multiclasse",
+ "idioma": "pt-BR",
+ "dominio": "transparencia_governamental"
+ },
+ "performance": {
+ "acuracia": 0.94,
+ "precisao": 0.92,
+ "recall": 0.89,
+ "f1_score": 0.90,
+ "auc_roc": 0.96,
+ "tempo_inferencia_ms": 45
+ },
+ "deploy": {
+ "status": "producao",
+ "endpoint": "/api/v1/anomalia/detectar",
+ "replicas": 3,
+ "gpu_necessaria": false,
+ "memoria_mb": 512,
+ "cpu_cores": 2
+ },
+ "arquivos": {
+ "cartao_modelo": "modelos/cidadao-detector-anomalias-v2/README.md",
+ "pesos": "modelos/cidadao-detector-anomalias-v2/pytorch_model.bin",
+ "config": "modelos/cidadao-detector-anomalias-v2/config.json",
+ "tokenizer": "modelos/cidadao-detector-anomalias-v2/tokenizer.json",
+ "script_inferencia": "modelos/cidadao-detector-anomalias-v2/inferencia.py",
+ "requirements": "modelos/cidadao-detector-anomalias-v2/requirements.txt"
+ },
+ "validacao": {
+ "casos_teste": "testes/integracao/test_detector_anomalias.py",
+ "dataset_benchmark": "datasets/benchmark_transparencia_v1.json",
+ "status_validacao": "passou",
+ "ultima_validacao": "2025-07-22T09:30:00Z"
+ },
+ "huggingface": {
+ "model_id": "neural-thinker/cidadao-detector-anomalias-v2",
+ "privado": false,
+ "downloads": 1250,
+ "likes": 89
+ }
+ }
+ }
+}
+```
+
+---
+
+## 🚀 **Arquitetura de Integração HuggingFace (Implementada)**
+
+### **🎯 Estratégia Principal: HuggingFace Hub + Spaces**
+
+```
+Fluxo de Deploy:
+cidadao.ai-models → HuggingFace Models → cidadao.ai-backend (HF Spaces)
+ (dev) (storage) (production)
+```
+
+### **💻 Implementação no Backend (HF Spaces)**
+
+```python
+# No cidadao.ai-backend (HuggingFace Spaces)
+from transformers import pipeline, AutoModel, AutoTokenizer
+from functools import lru_cache
+import torch
+
+@lru_cache(maxsize=10) # Cache local para performance
+def load_cidadao_model(model_name: str):
+ """Carrega modelo do HuggingFace Models e cacheia localmente"""
+ return pipeline(
+ "text-classification",
+ model=f"neural-thinker/{model_name}",
+ device=0 if torch.cuda.is_available() else -1
+ )
+
+# Uso nos Agentes Multi-Agent
+class ObaluaieCorruptionAgent(BaseAgent):
+ def __init__(self):
+ self.detector = load_cidadao_model("cidadao-detector-anomalias-v2")
+ self.ner = load_cidadao_model("cidadao-bertimbau-ner-v1")
+
+ async def analyze_corruption(self, transaction_data):
+ # Inferência usando modelos do HF Hub
+ anomaly_result = self.detector(transaction_data)
+ entities = self.ner(transaction_data)
+ return self.generate_report(anomaly_result, entities)
+```
+
+### **📦 Deploy de Modelos no HuggingFace**
+
+```bash
+# Deploy automático via CLI
+huggingface-cli login
+huggingface-cli upload neural-thinker/cidadao-detector-anomalias-v2 ./models/detector-anomalias/
+huggingface-cli upload neural-thinker/cidadao-bertimbau-ner-v1 ./models/ner/
+```
+
+### **🔄 Vantagens desta Arquitetura**
+
+✅ **Zero Infraestrutura**: Sem servers ou containers para modelos
+✅ **CDN Global**: HuggingFace distribui mundialmente
+✅ **Cache Inteligente**: Modelos carregados sob demanda
+✅ **Versionamento**: Controle automático de versões
+✅ **Performance**: Mesmo poder computacional do HF Spaces
+✅ **Escalabilidade**: Modelos disponíveis 24/7
+✅ **Community**: Visibilidade e contribuições
+
+### **📊 Métricas de Performance**
+
+```python
+# Monitoramento automático de modelos
+import time
+from functools import wraps
+
+def track_model_performance(func):
+ @wraps(func)
+ def wrapper(*args, **kwargs):
+ start_time = time.time()
+ result = func(*args, **kwargs)
+ inference_time = time.time() - start_time
+
+ # Log métricas para Grafana/Prometheus
+ log_metric("model_inference_time", inference_time)
+ log_metric("model_usage_count", 1)
+ return result
+ return wrapper
+
+@track_model_performance
+def analyze_with_model(data):
+ return load_cidadao_model("cidadao-detector-anomalias-v2")(data)
+```
+
+---
+
+## 🧪 **Estratégia de Testes**
+
+### **Hierarquia de Testes**
+
+```
+testes/
+├── unitarios/ # Testes rápidos e isolados
+│ ├── test_interfaces_modelos.py # Contratos de interface
+│ ├── test_preprocessamento.py # Processamento de dados
+│ └── test_pos_processamento.py # Processamento de saída
+├── integracao/ # Testes de interação de componentes
+│ ├── test_pipelines_modelos.py # Pipelines end-to-end
+│ ├── test_endpoints_api.py # Integração da API
+│ └── test_integracao_backend.py # Compatibilidade com backend
+├── performance/ # Testes de performance e carga
+│ ├── test_velocidade_inferencia.py # Benchmarks de latência
+│ ├── test_uso_memoria.py # Profiling de memória
+│ └── test_throughput.py # Requisições concorrentes
+└── validacao/ # Testes de acurácia de modelos
+ ├── test_acuracia_modelo.py # Validação de acurácia
+ ├── test_casos_extremos.py # Tratamento de edge cases
+ └── test_drift_dados.py # Detecção de shift de distribuição
+```
+
+### **Pipeline de Testes Contínuos**
+
+```yaml
+# .github/workflows/testes.yml
+name: Pipeline de Testes de Modelos
+on: [push, pull_request]
+
+jobs:
+ testes-unitarios:
+ runs-on: ubuntu-latest
+ steps:
+ - uses: actions/checkout@v3
+ - name: Executar testes unitários
+ run: pytest testes/unitarios/ -v --cov=modelos
+
+ validacao-modelos:
+ runs-on: ubuntu-latest
+ steps:
+ - name: Validar acurácia dos modelos
+ run: pytest testes/validacao/ -v
+ - name: Benchmarks de performance
+ run: pytest testes/performance/ -v
+
+ testes-integracao:
+ runs-on: ubuntu-latest
+ steps:
+ - name: Testar integração com backend
+ run: pytest testes/integracao/ -v
+```
+
+---
+
+## 🚀 **Estratégias de Deploy**
+
+### **Desenvolvimento Local**
+```bash
+# Início rápido para desenvolvimento
+docker-compose up -d
+# Acessar modelos em http://localhost:8001
+```
+
+### **Ambiente de Staging**
+```bash
+# Deploy Kubernetes
+kubectl apply -f deploy/kubernetes/staging/
+# Service mesh Istio para testes A/B
+kubectl apply -f deploy/istio/
+```
+
+### **Deploy de Produção**
+```bash
+# Deploy blue-green
+./deploy/scripts/blue_green_deploy.sh cidadao-detector-anomalias-v2
+# Rollout canary
+./deploy/scripts/canary_deploy.sh --divisao-trafego=10%
+```
+
+---
+
+## 📈 **Monitoramento & Observabilidade**
+
+### **Métricas de Performance de Modelos**
+
+```python
+# Tracking automático de performance
+@track_performance
+def predizer(self, entradas):
+ # Automaticamente rastreia:
+ # - Latência de inferência
+ # - Uso de memória
+ # - Distribuição de confiança das predições
+ # - Shapes dos dados de entrada/saída
+ # - Taxa de erros
+ pass
+```
+
+### **Dashboard de Métricas de Negócio**
+
+```yaml
+# Configuração dashboard Grafana
+dashboards:
+ - nome: "Performance dos Modelos"
+ paineis:
+ - latencia_inferencia_p95
+ - acuracia_predicao
+ - score_drift_modelo
+ - volume_requisicoes
+ - taxa_erro
+
+ - nome: "Impacto de Negócio"
+ paineis:
+ - anomalias_detectadas_diariamente
+ - taxa_sucesso_investigacoes
+ - taxa_falsos_positivos
+ - score_satisfacao_usuario
+```
+
+---
+
+## 🔮 **Aprimoramentos Futuros**
+
+### **Roadmap para os Próximos 6 Meses**
+
+1. **Q3 2025**:
+ - Modelos multimodais (texto + dados tabulares)
+ - Atualizações de modelo em tempo real via streaming
+ - Otimização para deploy em edge
+
+2. **Q4 2025**:
+ - Aprendizado federado para treinamento preservando privacidade
+ - Pipeline AutoML para busca de arquitetura de modelos
+ - Explicabilidade avançada com inferência causal
+
+3. **Q1 2026**:
+ - Integração com backends de computação quântica
+ - Pipeline de fine-tuning de large language models
+ - Plataforma de colaboração inter-governamental
+
+---
+
+## 💡 **Áreas de Inovação**
+
+### **Oportunidades de Pesquisa**
+- **IA Causal**: Entender relações causa-efeito em dados governamentais
+- **Meta-Learning**: Aprendizado few-shot para novos domínios governamentais
+- **Robustez Adversarial**: Defesa contra manipulação de dados
+- **IA Interpretável**: Construir confiança através de transparência
+
+### **Exploração Tecnológica**
+- **Redes Neurais de Grafos**: Modelar relacionamentos entre entidades
+- **Transformers para Séries Temporais**: Reconhecimento avançado de padrões temporais
+- **Fusão Multimodal**: Combinar dados de texto, numéricos e imagem
+- **Aprendizado por Reforço**: Estratégias adaptativas de investigação
+
+---
+
+## 📊 **Métricas de Performance e Sucesso**
+
+### **💻 KPIs Técnicos (HuggingFace Integration)**
+- **Latência de Download**: < 2s para primeiro carregamento
+- **Latência de Inferência**: < 100ms no HF Spaces
+- **Cache Hit Rate**: > 90% para modelos frequentes
+- **Acurácia de Modelos**: > 95% no conjunto de validação
+- **Disponibilidade**: 99.9% via CDN HuggingFace
+- **Throughput**: > 1000 inferências/min por modelo
+
+### **🎯 KPIs de Negócio (Impacto Real)**
+- **50%** ⬆️ na acurácia de detecção de anomalias
+- **30%** ⬇️ na taxa de falsos positivos
+- **25%** ⬆️ na eficiência de investigações
+- **90%** score de satisfação do usuário
+- **15** agentes multi-agent usando modelos especializados
+
+### **🌍 KPIs de Community (HuggingFace)**
+- **Downloads**: > 10K/mês por modelo principal
+- **Likes**: > 100 por modelo
+- **Contributors**: > 5 colaboradores ativos
+- **Model Cards**: Documentação completa 100% modelos
+
+---
+
+## 🚀 **Roadmap de Implementação Atualizado**
+
+### **📋 Fase 1: Setup HuggingFace (Esta Semana)**
+- ✅ **Estrutura do repositório** definida
+- 🔄 **HuggingFace CLI** configurado
+- 🔄 **CI/CD pipeline** para auto-deploy HF Models
+- 🔄 **Model cards** templates criados
+
+### **🤖 Fase 2: Migração de Modelos (Próximas 2 Semanas)**
+- 🔄 **cidadao-detector-anomalias-v2** → HF Models
+- 🔄 **cidadao-bertimbau-ner-v1** → HF Models
+- 🔄 **cidadao-classificador-risco-v1** → HF Models
+- 🔄 **Integração** com backend via transformers
+
+### **⚡ Fase 3: Otimização (Mês 2)**
+- 🔄 **ONNX export** para performance
+- 🔄 **Quantização** para memória
+- 🔄 **Cache inteligente** no backend
+- 🔄 **Métricas** Prometheus integradas
+
+### **🌍 Governança Simplificada**
+
+**👨💻 Responsável Principal**: Anderson Henrique
+**📝 Processo**:
+1. Desenvolver modelo localmente
+2. Testar integração com backend
+3. Deploy automático HF Models
+4. Atualizar backend para usar nova versão
+5. Monitorar performance em produção
+
+---
+
+## 🔧 **Próximos Passos Imediatos**
+
+### **Esta Semana (22-28 Jul 2025)**
+1. **Criar estrutura inicial do repositório** com diretórios base
+2. **Configurar ambiente de desenvolvimento** com Docker e requirements
+3. **Implementar sistema básico de registry** de modelos
+4. **Documentar padrões de interface** para todos os tipos de modelos
+
+### **Próxima Semana (29 Jul - 4 Ago 2025)**
+1. **Migrar primeiro modelo** (detector de anomalias) do backend
+2. **Criar model card completo** com documentação técnica
+3. **Implementar testes básicos** de validação
+4. **Configurar CI/CD pipeline** no GitHub Actions
+
+### **Sprint 1 (5-18 Ago 2025)**
+1. **Migrar todos os modelos principais** do backend
+2. **Implementar pipelines de inferência** para cada modelo
+3. **Criar integração com backend** via submódulo Git
+4. **Configurar monitoramento básico** de performance
+
+---
+
+---
+
+## 🎆 **Conclusão: Hub de Modelos de Classe Mundial**
+
+O **cidadao.ai-models** representa uma **evolução arquitetural** no ecossistema Cidadão.IA, combinando:
+
+✨ **Simplicidade**: Deploy direto via HuggingFace Models
+🚀 **Performance**: Zero infraestrutura, CDN global
+🤖 **Integração**: Seamless com backend via transformers
+🌍 **Community**: Visibilidade e contribuições abertas
+📊 **Escalabilidade**: Modelos disponíveis 24/7 mundialmente
+
+### **🎯 Impacto Esperado**
+- **15 agentes** do backend usando modelos especializados
+- **>95% acurácia** na detecção de anomalias governamentais
+- **<100ms** latência de inferência em produção
+- **Zero custos** de infraestrutura para serving de modelos
+- **Democratização** da IA para transparência no Brasil
+
+*Esta arquitetura estabelece o **primeiro hub de modelos de IA governamental** do Brasil, integrando seamlessly com HuggingFace para criar uma plataforma de transparência de classe mundial.*
+
+**📄 Versão do Documento**: 2.0.0 (HuggingFace Native)
+**🗓️ Última Atualização**: 23 de Julho, 2025
+**🔄 Próxima Revisão**: 30 de Julho, 2025 (Pós primeiro deploy)
diff --git a/Dockerfile b/Dockerfile
new file mode 100644
index 0000000000000000000000000000000000000000..50b4115744592541b22f96b81a6cdaaa65b7f67b
--- /dev/null
+++ b/Dockerfile
@@ -0,0 +1,45 @@
+# Dockerfile for HuggingFace Spaces - Cidadão.AI Models
+FROM python:3.11-slim
+
+# Set environment variables
+ENV PYTHONUNBUFFERED=1
+ENV PYTHONDONTWRITEBYTECODE=1
+ENV PORT=8001
+
+# Install system dependencies
+RUN apt-get update && apt-get install -y \
+ curl \
+ git \
+ && rm -rf /var/lib/apt/lists/*
+
+# Create app user for security
+RUN useradd --create-home --shell /bin/bash app
+
+# Set work directory
+WORKDIR /app
+
+# Copy requirements and install Python dependencies
+COPY requirements-hf.txt ./
+RUN pip install --no-cache-dir --upgrade pip && \
+ pip install --no-cache-dir -r requirements-hf.txt
+
+# Copy application code
+COPY src/ ./src/
+COPY app.py ./
+
+# Create necessary directories and set permissions
+RUN mkdir -p logs models data && \
+ chown -R app:app /app
+
+# Switch to app user
+USER app
+
+# Expose port for HuggingFace Spaces
+EXPOSE 8001
+
+# Health check
+HEALTHCHECK --interval=30s --timeout=10s --start-period=5s --retries=3 \
+ CMD curl -f http://localhost:8001/health || exit 1
+
+# Run application
+CMD ["python", "app.py"]
\ No newline at end of file
diff --git a/README.md b/README.md
new file mode 100644
index 0000000000000000000000000000000000000000..a4672b78bcc73b704375b6acc3164948f0bfaead
--- /dev/null
+++ b/README.md
@@ -0,0 +1,222 @@
+---
+title: Cidadão.AI Models
+emoji: 🤖
+colorFrom: blue
+colorTo: green
+sdk: docker
+app_port: 8001
+pinned: false
+license: mit
+tags:
+ - transparency
+ - government
+ - brazil
+ - anomaly-detection
+ - fastapi
+---
+
+# 🤖 Cidadão.AI Models
+
+> **Modelos especializados de Machine Learning para análise de transparência pública brasileira**
+
+[](https://www.python.org/downloads/)
+[](https://pytorch.org/)
+[](https://huggingface.co/transformers/)
+[](LICENSE)
+
+## 🎯 Visão Geral
+
+**Cidadão.AI Models** é o repositório especializado em modelos de machine learning para o ecossistema Cidadão.AI. Contém modelos customizados, pipeline de treinamento MLOps e infraestrutura de inferência para análise avançada de dados de transparência pública.
+
+### 🚀 Capacidades Principais
+
+- 🔍 **Detecção de Anomalias** - Identificação automática de padrões suspeitos em contratos públicos
+- 📊 **Análise de Padrões** - Reconhecimento de correlações e tendências em dados governamentais
+- 🌊 **Análise Espectral** - Detecção de padrões temporais e sazonais via FFT
+- 🤖 **Modelos Customizados** - Arquiteturas especializadas para transparência brasileira
+- 🔄 **Pipeline MLOps** - Treinamento, versionamento e deploy automatizados
+
+## 🏗️ Arquitetura
+
+```
+src/
+├── models/ # Modelos de ML especializados
+│ ├── anomaly_detection/ # Detecção de anomalias
+│ ├── pattern_analysis/ # Análise de padrões
+│ ├── spectral_analysis/ # Análise espectral
+│ └── core/ # Classes base e utilitários
+├── training/ # Pipeline de treinamento
+│ ├── pipelines/ # Pipelines de treinamento
+│ ├── configs/ # Configurações de modelos
+│ └── utils/ # Utilitários de treinamento
+├── inference/ # Servidor de inferência
+│ ├── api_server.py # FastAPI server
+│ ├── batch_processor.py # Processamento em lote
+│ └── streaming.py # Inferência em tempo real
+└── deployment/ # Ferramentas de deploy
+ ├── huggingface/ # Integração HuggingFace Hub
+ ├── docker/ # Containerização
+ └── monitoring/ # Monitoramento de modelos
+```
+
+## 🚀 Quick Start
+
+### Instalação
+
+```bash
+# Clone o repositório
+git clone https://github.com/anderson-ufrj/cidadao.ai-models
+cd cidadao.ai-models
+
+# Instale as dependências
+pip install -r requirements.txt
+
+# Instale o pacote em modo desenvolvimento
+pip install -e .
+```
+
+### Uso Básico
+
+```python
+from cidadao_models.models.anomaly_detection import AnomalyDetector
+from cidadao_models.models.pattern_analysis import PatternAnalyzer
+
+# Inicializar modelos
+anomaly_detector = AnomalyDetector()
+pattern_analyzer = PatternAnalyzer()
+
+# Analisar contratos para anomalias
+contracts = [...] # Lista de contratos
+anomalies = anomaly_detector.analyze(contracts)
+
+# Analisar padrões temporais
+patterns = pattern_analyzer.analyze_temporal_patterns(data)
+```
+
+### Servidor de Inferência
+
+```bash
+# Iniciar servidor API
+uvicorn src.inference.api_server:app --host 0.0.0.0 --port 8001
+
+# Testar endpoint
+curl -X POST "http://localhost:8001/v1/detect-anomalies" \
+ -H "Content-Type: application/json" \
+ -d '{"contracts": [...]}'
+```
+
+## 🧠 Modelos Disponíveis
+
+### 🔍 Detector de Anomalias
+- **Algoritmos**: Isolation Forest, One-Class SVM, Local Outlier Factor
+- **Especialização**: Contratos públicos brasileiros
+- **Métricas**: Precisão >90% para anomalias críticas
+
+### 📊 Analisador de Padrões
+- **Capacidades**: Time series, correlações, clustering
+- **Técnicas**: Prophet, FFT, decomposição sazonal
+- **Output**: Padrões temporais e insights explicáveis
+
+### 🌊 Analisador Espectral
+- **Método**: Transformada rápida de Fourier (FFT)
+- **Detecção**: Padrões periódicos suspeitos
+- **Aplicação**: Irregularidades sazonais em gastos
+
+## 🛠️ Desenvolvimento
+
+### Estrutura de Testes
+
+```bash
+# Executar todos os testes
+pytest tests/
+
+# Testes específicos
+pytest tests/unit/models/
+pytest tests/integration/
+pytest tests/e2e/
+```
+
+### Treinamento de Modelos
+
+```bash
+# Treinar modelo de detecção de corrupção
+python src/training/pipelines/train_corruption_detector.py --config configs/corruption_bert.yaml
+
+# Avaliar performance
+python src/training/evaluate.py --model corruption_detector --test_data data/test.json
+```
+
+### Deploy HuggingFace
+
+```bash
+# Upload para HuggingFace Hub
+python src/deployment/huggingface/upload.py --model_path models/anomaly_detector --repo_name cidadao-ai/anomaly-detector
+```
+
+## 🔄 Integração com Backend
+
+Este repositório se integra com o [cidadao.ai-backend](https://github.com/anderson-ufrj/cidadao.ai-backend) através de:
+
+- **API REST**: Servidor de inferência FastAPI
+- **Package Integration**: Importação direta como dependência
+- **Fallback Local**: Processamento local se API indisponível
+
+```python
+# No backend
+from src.tools.models_client import ModelsClient
+
+client = ModelsClient("http://models-api:8001")
+results = await client.detect_anomalies(contracts)
+```
+
+## 📊 MLOps Pipeline
+
+### Treinamento Automatizado
+- ⚡ **CI/CD**: Pipeline automatizado GitHub Actions
+- 📈 **Experiment Tracking**: MLflow + Weights & Biases
+- 🔄 **Model Versioning**: HuggingFace Hub integration
+- 📊 **Performance Monitoring**: Drift detection + alerting
+
+### Deployment
+- 🐳 **Containerização**: Docker para produção
+- 🤗 **HuggingFace Spaces**: Demo models deployment
+- 🚀 **Kubernetes**: Orquestração escalável
+- 📡 **Monitoring**: Prometheus metrics + Grafana dashboards
+
+## 🔗 Links Relacionados
+
+- 🏛️ **Backend**: [cidadao.ai-backend](https://github.com/anderson-ufrj/cidadao.ai-backend)
+- 🎨 **Frontend**: [cidadao.ai-frontend](https://github.com/anderson-ufrj/cidadao.ai-frontend)
+- 📚 **Documentação**: [cidadao.ai-docs](https://github.com/anderson-ufrj/cidadao.ai-docs)
+- 🤗 **HuggingFace**: [cidadao-ai organization](https://huggingface.co/cidadao-ai)
+
+## 📈 Status do Projeto
+
+- ✅ **Estrutura Base**: Completa
+- 🔄 **Migração ML**: Em andamento
+- ⏳ **API Server**: Planejado
+- ⏳ **HF Integration**: Próximo
+
+## 👨💻 Contribuição
+
+1. Fork o projeto
+2. Crie uma branch para sua feature (`git checkout -b feature/AmazingFeature`)
+3. Commit suas mudanças (`git commit -m 'feat: add amazing feature'`)
+4. Push para a branch (`git push origin feature/AmazingFeature`)
+5. Abra um Pull Request
+
+## 📄 Licença
+
+Distribuído sob a licença MIT. Veja `LICENSE` para mais informações.
+
+## 👨💻 Autor
+
+**Anderson Henrique da Silva**
+📧 andersonhs27@gmail.com | 💻 [GitHub](https://github.com/anderson-ufrj)
+
+---
+
+
+
🧠 Democratizando Análise de Transparência com IA Avançada 🧠
+
Modelos • MLOps • Explicável • Brasileira
+
\ No newline at end of file
diff --git a/app.py b/app.py
new file mode 100644
index 0000000000000000000000000000000000000000..e2a73f8641d0d70cfa178b97362db8e37b4d2734
--- /dev/null
+++ b/app.py
@@ -0,0 +1,165 @@
+#!/usr/bin/env python3
+"""
+Cidadão.AI Models - HuggingFace Spaces Entry Point
+
+FastAPI server for ML model inference optimized for HuggingFace Spaces deployment.
+"""
+
+import os
+import sys
+import logging
+from contextlib import asynccontextmanager
+
+import uvicorn
+from fastapi import FastAPI, HTTPException
+from fastapi.middleware.cors import CORSMiddleware
+from fastapi.responses import JSONResponse, HTMLResponse
+
+# Configure logging for HuggingFace
+logging.basicConfig(
+ level=logging.INFO,
+ format="%(asctime)s - %(name)s - %(levelname)s - %(message)s",
+ handlers=[logging.StreamHandler(sys.stdout)]
+)
+logger = logging.getLogger(__name__)
+
+# Import our API server
+try:
+ from src.inference.api_server import app as models_app
+ MODELS_AVAILABLE = True
+ logger.info("✅ Models API successfully imported")
+except Exception as e:
+ logger.error(f"❌ Failed to import models API: {e}")
+ MODELS_AVAILABLE = False
+
+@asynccontextmanager
+async def lifespan(app: FastAPI):
+ """Application lifespan manager for HuggingFace Spaces."""
+ logger.info("🚀 Starting Cidadão.AI Models on HuggingFace Spaces")
+ logger.info(f"🔧 Environment: {os.getenv('SPACE_ID', 'local')}")
+ logger.info(f"🌐 Port: {os.getenv('PORT', '8001')}")
+
+ yield
+
+ logger.info("🛑 Shutting down Cidadão.AI Models")
+
+if MODELS_AVAILABLE:
+ # Use the imported models app
+ app = models_app
+ logger.info("Using full models API")
+else:
+ # Fallback minimal app
+ app = FastAPI(
+ title="🤖 Cidadão.AI Models (Fallback)",
+ description="Minimal fallback API when models are not available",
+ version="1.0.0",
+ lifespan=lifespan
+ )
+
+ app.add_middleware(
+ CORSMiddleware,
+ allow_origins=["*"],
+ allow_credentials=True,
+ allow_methods=["*"],
+ allow_headers=["*"],
+ )
+
+ @app.get("/", response_class=HTMLResponse)
+ async def fallback_root():
+ """Fallback root with information about the service."""
+ return """
+
+
+ Cidadão.AI Models
+
+
+
+
+
🤖 Cidadão.AI Models
+
Sistema de ML para Transparência Pública Brasileira
+
+
+
📊 Status do Sistema
+
⚠️ Modo Fallback - Modelos ML não disponíveis
+
🔧 Para funcionalidade completa, verifique as dependências
+
+
+
+
🔗 Endpoints Disponíveis
+
GET /health - Health check
+
GET /docs - Documentação da API
+
GET / - Esta página
+
+
+
+
🏛️ Sobre o Cidadão.AI
+
Sistema multi-agente de IA para análise de transparência pública,
+ especializado em detectar anomalias e padrões suspeitos em dados
+ governamentais brasileiros.