Informe seus dados para liberar o Framework de Adoção de IA gratuitamente.
Seus dados são tratados com segurança conforme a LGPD.
Não compartilhamos com terceiros.
Tech Leads Club · Guia de Referência Completo
Um guia de 7 fases para times de engenharia que querem adotar IA de forma estruturada e sustentável — do diagnóstico organizacional à escala corporativa. Construído com base em experiência prática de desenvolvedores e líderes técnicos da comunidade Tech Leads Club. Este documento é autossuficiente: contém todas as perguntas, metodologias, conteúdos e critérios do framework para uso sem acesso ao app.
Beta · v0.5 · Distribuído gratuitamente pela comunidade Tech Leads Club · Construído com base em experiência de devs e líderes técnicos · comece.techleads.club
Objetivo da fase
Mede o nível de prontidão da organização e da engenharia para adoção de IA, identificando lacunas de cultura, maturidade operacional e capacidade técnica. O resultado orienta todas as fases seguintes e serve como baseline para medir evolução.
Metodologia de pontuação
Cada dimensão recebe pontuação de 1.0 (baixo), 2.0 (médio) ou 3.0 (alto) com base na resposta selecionada. O score geral é a média das 9 dimensões. O gargalo principal é a dimensão de menor pontuação — em caso de empate, o critério de desempate é a dimensão de maior impacto operacional na adoção de IA.
Os 3 macro-blocos
As 9 perguntas do diagnóstico
Recomendações por dimensão e nível
| Dimensão | Baixo | Médio | Alto |
|---|---|---|---|
| Autonomia | Mapear dependências externas que bloqueiam decisões técnicas dos times. Implementar ownership por squad com escopo claro. | Estabelecer critérios objetivos para escalada de decisões versus decisão local. Criar fóruns de arquitetura que preservem autonomia. | Documentar os mecanismos de autonomia para replicar em novos times. Auditar periodicamente se a autonomia está gerando coerência técnica. |
| Flex. Organizacional | Identificar os principais pontos de aprovação burocrática que atrasam adoção de tecnologia. Criar processo de experimentação controlada. | Formalizar um framework de decisão para avaliação de novas tecnologias. Reduzir o ciclo de feedback entre proposta e decisão para menos de 2 semanas. | Documentar o modelo de adoção como referência para novos times e produtos. Avaliar se a velocidade de adoção está criando débito de governança. |
| Ownership | Definir SLOs por squad e torná-los visíveis para toda a engenharia. Estabelecer on-call rotativo por produto, não por componente. | Conectar métricas de negócio aos resultados de engenharia de cada squad. Implementar revisões regulares de incidentes com ownership explícito. | Verificar se o ownership está distribuído de forma sustentável ou concentrado em poucos. Usar dados de incidents para orientar priorização técnica. |
| Cont. Delivery | Automatizar o processo de build e deploy antes de qualquer outra iniciativa de CD. Medir lead time atual para estabelecer baseline. | Implementar feature flags para separar deploy de release e reduzir risco. Reduzir o tamanho médio dos pull requests para acelerar o ciclo. | Garantir que a frequência de deploy não esteja degradando a estabilidade de produção. Explorar deployment progressivo (canary, blue-green). |
| Qualidade | Estabelecer cobertura mínima de testes automatizados como critério de merge. Criar testes de integração para os 5 componentes mais críticos. | Mover testes manuais de regressão para automação progressivamente por release. Implementar quality gates no pipeline de CI. | Medir o custo de manutenção dos testes para prevenir debt em automação. Avaliar a eficácia dos testes em detectar defeitos antes de produção. |
| Vel. de Feedback | Instrumentar o pipeline de CI para medir tempo médio de feedback de testes. Criar alertas de produção com detecção de anomalias. | Reduzir o tempo de execução do pipeline de CI para menos de 10 minutos. Implementar monitoramento de experiência real do usuário (RUM). | Avaliar se a velocidade de feedback está sendo usada ativamente em decisões de produto. Documentar o fluxo como padrão para novos produtos. |
| DX & Código | Realizar auditoria de débito técnico nas áreas de maior volume de alteração. Medir tempo de onboarding de novos engenheiros. | Padronizar ambiente de desenvolvimento local com containers reproduzíveis. Criar convenções de código documentadas e aplicadas via linting. | Medir a correlação entre qualidade do código e velocidade de entrega. Investir em abstrações internas que reduzam código repetitivo. |
| Uso de IA | Adotar assistentes de código com IA para toda a engenharia como ponto de partida. Definir casos de uso concretos onde IA gera ganho mensurável. | Medir o impacto do uso de IA em velocity, qualidade e tempo de ciclo. Expandir uso de IA para revisão de código, geração de testes e documentação. | Explorar agentes de IA para tarefas de refatoração e automação de fluxos repetitivos. Estabelecer governança para uso de IA. |
| Senioridade | Criar plano de carreira técnico com critérios explícitos de progressão para sênior. Identificar engenheiros com potencial e oferecer mentoria estruturada. | Revisar distribuição de tarefas complexas para desenvolver sêniores emergentes. Criar fóruns técnicos onde sêniores compartilhem decisões. | Avaliar se a senioridade está sendo usada para elevar o nível técnico coletivo. Documentar critérios de promoção para staff/principal. |
Objetivo da fase
Define quem é o dono da jornada de adoção de IA antes de qualquer experimento começar. Consolida o Time AI Enablers com papéis, responsabilidades e rituais — garantindo que o piloto (Fase 3) tenha patrocínio, estrutura e um responsável por transformar aprendizados em expansão. Dimensiona o time em um de 3 arquétipos baseados no tamanho da engenharia.
Os 3 arquétipos de Time AI Enablers
Check-in quinzenal de 30 min com o time completo para compartilhar aprendizados, desbloquear impedimentos e ajustar prioridades de experimentação.
Programa de Capacitação Contínua
O Time AI Enablers é o dono do programa de capacitação. Capability humana não é um evento pontual — é fio condutor de todas as fases. A matriz abaixo define 4 níveis de proficiência e 4 áreas de competência que formam o currículo de AI fluency da organização.
Matriz de 4 níveis de proficiência
| Nível | Característica | Critério prático | Gate de avanço |
|---|---|---|---|
| L0 · Curioso | Ouviu falar, ainda não usa IA sistematicamente | Não tem ferramenta configurada no fluxo diário | Obrigatório sair do L0 antes de usar IA em contexto produtivo |
| L1 · Aplicador | Usa IA no fluxo diário com fluência básica | Pelo menos 1 ferramenta ativa; sabe estruturar prompts básicos e iterar | Gate de entrada para Fase 3 (Piloto): 100% do time piloto em ≥ L1 |
| L2 · Crítico | Avalia output com senso crítico; sabe quando NÃO usar IA | Reverte sugestões ruins; identifica hallucinations; distingue uso seguro de arriscado | Gate para nível "team" na Fase 5: ≥ 60% do time em L2 por estágio |
| L3 · Multiplicador | Ensina, padroniza, audita o uso de IA nos outros | Cria templates de prompt, treina peers, define guidelines técnicas; campeão de squad | Meta de escala: ≥ 1 L3 por squad; ≥ 5% da engenharia total em L3 |
4 áreas de competência (currículo)
| Área | O que cobre | Exemplo de atividade formativa |
|---|---|---|
| 1. Prompt Engineering & Colaboração | Como dialogar com IA, dar contexto, iterar, usar system prompts e templates | Workshop prático: reescrever prompts reais do time para melhorar qualidade de output |
| 2. Crítica de Output | Avaliar qualidade, identificar erros sutis, calibrar confiança por tipo de tarefa | Lab de "caça ao hallucination": exercícios com outputs propositalmente errados |
| 3. Segurança e Governança de Uso | Quando IA pode/não pode ser usada, dados sensíveis, PI, compliance, guardrails | Simulação de incidente: "O que você faria se a IA gerasse código com PII hard-coded?" |
| 4. Tooling Específico do Stack | Configuração, atalhos, integrações e boas práticas das ferramentas aprovadas | Sessão hands-on no editor com o setup padrão da organização |
Modelo de aprendizado 70/20/10
Cadência de assessment: auto-avaliação trimestral com validação por par (peer review do nível declarado). O campeão de squad (L3) é o validador local. Resultados publicados no heatmap de capability (Fase 7 · MET-A04).
Objetivo da fase
Com o Time AI Enablers formado e o dono da jornada definido, esta fase seleciona qual squad de produto vai ser o primeiro a experimentar IA em contexto real de produção. Avalia prontidão do time candidato e gera um plano operacional completo para o ciclo piloto.
Dimensões avaliadas (scoring ponderado)
O formulário coleta dados sobre 5 dimensões do time candidato ao piloto. Autonomia, Senioridade e Velocidade de Feedback têm peso 2× (mais determinantes para o sucesso do piloto). Segurança psicológica e estabilidade de roadmap têm peso 1×. Score total ÷ 8 = score de prontidão (mesmos thresholds da Fase 1).
| Dimensão | Peso | Pergunta avaliada |
|---|---|---|
| Autonomia Técnica | 2× | O time candidato pode tomar decisões técnicas e experimentar ferramentas sem aprovações externas ao squad? |
| Senioridade | 2× | O time tem engenheiros sêniores capazes de avaliar criticamente o output da IA e orientar adoção responsável? |
| Velocidade de Feedback | 2× | O pipeline de CI/CD do time permite ciclos de feedback rápidos (<10 min) e deploys frequentes? |
| Segurança Psicológica | 1× | O time se sente seguro para experimentar, cometer erros e reportar problemas sem medo de julgamento? |
| Estabilidade de Roadmap | 1× | O roadmap do time tem estabilidade suficiente para dedicar capacidade ao piloto sem interrupções frequentes? |
Exemplos de ferramentas de IA por categoria
Lista ilustrativa — não exaustiva e não endossada. O mercado de ferramentas de IA evolui rápido; use como ponto de partida para avaliação, não como lista definitiva. Critério de seleção para o piloto deve considerar stack, contexto de segurança e maturidade do time.
Métricas de sucesso do piloto (por nível de prontidão)
Baseado em: MIT/Microsoft/Accenture RCT (4.867 devs, 2025) · Jellyfish (146k tickets) · McKinsey AI Software (2025) · DORA State of AI 2025. Atenção: DORA 2025 confirma que IA é amplificador — times sem qualidade e testes sólidos registraram aumento de bugs com IA. Métricas de nível baixo priorizam adoção segura antes de velocity.
| Baixo — foco em adoção e segurança | Médio — foco em tempo e qualidade | Alto — foco em outcomes |
|---|---|---|
| ≥ 80% dos membros usando ao menos 1 ferramenta de IA ativamente após 4 semanas (benchmark Accenture: 80%+ de adoção) | Redução de 20% no tempo de revisão de PRs em relação ao baseline (benchmark Jellyfish: -26% PR review time) | Aumento de 25% em tasks completadas por sprint em relação ao baseline (benchmark MIT: +26% completed tasks) |
| ≥ 70% do time relata confiança no código gerado por IA após revisão (DORA 2025: 30% ainda não confiam — construir confiança é pré-condição) | Redução de 15% no coding time em tarefas cobertas por IA (benchmark Jellyfish: -20% coding time) | Redução de 20% em defeitos reportados por cliente ou QA nos módulos do piloto (benchmark McKinsey top performers: -20–30% defects) |
| Zero incidentes de produção causados diretamente por código gerado por IA sem revisão adequada | Taxa de bugs em código com IA igual ou inferior ao código manual — ausência de regressão de qualidade (alerta: Uplevel registrou +41% bugs sem guardrails) | Pelo menos 3 estágios do SDLC com IA no nível "team" e métricas de impacto documentadas |
| Processo de revisão obrigatória de código gerado por IA documentado e seguido por 100% do time | Pelo menos 2 casos de uso documentados com ganho mensurável e reproduzível | DORA baseline estabelecido e ao menos 1 métrica (deployment frequency ou change failure rate) com melhora mensurável |
| Satisfação do time com ferramentas de IA ≥ 7/10 após 8 semanas (Accenture: 90% maior satisfação, 95% curtem mais programar) | Guia interno de boas práticas de prompt publicado e adotado por ≥ 80% do time | Piloto documentado e apresentado a ao menos 1 squad candidato à expansão — playbook validado e reutilizável |
Gate de capability (pré-requisito de entrada)
Antes de iniciar o piloto, 100% dos membros do time selecionado devem atingir L1 · Aplicador. O Time AI Enablers (Fase 2) coordena o onboarding de capacitação antes do kickoff — o piloto não começa com ninguém em L0.
Critérios de expansão além do piloto (por nível de prontidão)
| Baixo | Médio | Alto |
|---|---|---|
| Todos os membros do time piloto completaram onboarding nas ferramentas de IA e conseguem usá-las de forma independente | Pelo menos 2 fluxos de desenvolvimento com IA estão documentados com métricas de ganho | Todos os critérios de sucesso do piloto atingidos e documentados com dados |
| Pelo menos 1 processo de revisão de código gerado por IA está documentado e sendo seguido consistentemente | Time piloto atingiu as metas de velocity e qualidade definidas no início do piloto | Time piloto capaz de integrar, avaliar e padronizar novas ferramentas de IA de forma autônoma |
| Nenhum incidente de produção causado por adoção de IA não supervisionada nos últimos 30 dias | Pelo menos 1 membro sênior do time piloto preparado para liderar adoção em outro time | Governança básica de uso de IA definida (critérios de qualidade, revisão obrigatória, casos de uso aprovados) |
| Liderança técnica do time piloto capaz de treinar ao menos 1 outro time nas práticas adotadas | Playbook de adoção de IA revisado e validado pelo time antes da expansão | Ao menos 1 apresentação interna realizada com resultados do piloto para candidatos à expansão |
Objetivo da fase
Consolida os gargalos identificados nas fases anteriores, prioriza-os por impacto, esforço e risco, e gera um plano sequenciado em 3 trilhas com marcos relativos. O diferencial desta fase é que o usuário pode editar a lista de gargalos antes da geração — adicionando, removendo ou ajustando itens.
Fórmula de priorização
Score = (impacto × 3) + (esforço_inverso × 2) + (risco × 2)
Cada variável é avaliada de 1 a 3. Esforço inverso: esforço baixo = 3, médio = 2, alto = 1.
Score máximo: 15 · Score mínimo: 7
Crítico: score ≥ 11 · Médio: score 7–10
As 3 trilhas do plano
Estrutura de milestones
| Marco | Foco | Critério de conclusão |
|---|---|---|
| +30 dias | Itens críticos de maior impacto e menor esforço — as "vitórias rápidas" | Bloqueadores imediatos removidos; time consegue experimentar com IA sem impedimentos do dia a dia |
| +90 dias | Itens de médio esforço que criam infraestrutura para adoção sustentável | Base técnica e organizacional suficiente para expandir adoção além do time piloto |
| +180 dias | Itens estruturais de alto esforço que garantem escala e sustentabilidade de longo prazo | Organização operando com IA de forma sistemática, com governança e métricas estabelecidas |
Gargalos típicos por dimensão (contexto para o diagnóstico)
| Dimensão | Gargalo típico (baixo) | Gargalo típico (médio) |
|---|---|---|
| Autonomia | Baixa autonomia do time limita a capacidade de experimentação com IA sem aprovação constante, reduzindo o ritmo de adoção. | Autonomia parcial pode gerar inconsistência na adoção: algumas iniciativas avançam enquanto outras aguardam validação. |
| Cont. Delivery | Pipeline de entrega contínua não consolidado aumenta o lead time de mudanças e reduz a frequência de ciclos de feedback. | CD parcialmente implementado: pipelines existem mas sem automação completa de qualidade ou deploy zero-downtime. |
| Qualidade | Ausência de práticas sistemáticas de qualidade (testes automatizados, análise estática) amplia o risco de regressões durante a adoção de IA. | Cobertura de testes parcial: módulos críticos cobertos, mas gaps na automação reduzem a confiança nas mudanças geradas com assistência de IA. |
| Vel. Feedback | Ciclo de feedback lento (revisões de PR prolongadas, deploys manuais) compromete a velocidade de aprendizado com ferramentas de IA. | Feedback moderado: revisões realizadas, mas sem SLAs definidos, causando variabilidade no ritmo de entrega. |
| Ownership | Baixo senso de propriedade sobre componentes reduz a motivação para adotar IA de forma autônoma e responsável. | Ownership concentrado em alguns membros sênior; riscos de gargalo em revisões e decisões de arquitetura. |
| DX & Código | Experiência de desenvolvimento degradada (setup complexo, ambientes instáveis) reduz o ganho percebido das ferramentas de IA. | DX razoável, mas ainda com fricção em setup e onboarding que pode desacelerar a adoção por novos membros do time. |
| Senioridade | Time predominantemente júnior exige maior investimento em contexto e revisão para validar sugestões de IA de forma segura. | Seniority mista: membros experientes podem acelerar, mas a capacidade de revisão crítica das saídas de IA é limitada pela concentração sênior. |
| Flex. Org. | Rigidez organizacional (aprovações lentas, processos formais obrigatórios) limita a capacidade de experimentação e iteração rápida. | Flexibilidade parcial: processos ajustáveis em nível de time, mas dependências externas adicionam latência nas decisões. |
| Uso de IA | Uso atual de IA é inexistente ou individual, sem padronização. A adoção do time piloto parte do zero em termos de cultura e tooling. | IA já utilizada individualmente por alguns membros, mas sem padronização de ferramentas, prompts ou critérios de qualidade. |
Objetivo da fase
Gera um playbook de adoção progressiva para os 6 estágios do SDLC. Para cada estágio, define o nível de adoção recomendado (none → experimental → team → org), o workflow com responsabilidades (ia/human/shared), anti-padrões e critérios de avanço.
Templates de adoção (seleção determinística)
| Template | Quando é selecionado | Característica |
|---|---|---|
| Conservador | currentAiUsage == "none" OU overallLevel == "low" | Começa pelos estágios de menor risco (testes e observabilidade). Prioriza qualidade sobre velocidade de adoção. |
| Balanceado | Caso padrão (não se encaixa em conservador nem agressivo) | Começa pela codificação. Avança em paralelo nos estágios de menor risco enquanto consolida os de maior impacto. |
| Agressivo | currentAiUsage == "organization" OU overallLevel == "high" | Adoção simultânea em múltiplos estágios (código, review e deploy primeiro). Para times com alta maturidade. |
Os 4 níveis de adoção por estágio
| Nível | Definição | Característica |
|---|---|---|
| none | IA não é usada neste estágio | Ponto de partida. Não significa que nunca será — apenas que ainda não é o momento para este estágio específico. |
| experimental | IA em uso por 1–2 pessoas, sem padrão definido | Fase exploratória. O objetivo é aprender, não escalar. Sem gate de qualidade obrigatório ainda. |
| team | IA adotada por todo o time com padrão mínimo definido | Adoção padronizada dentro do squad. Gates de qualidade ativos. Aprendizados documentados. |
| org | IA padronizada em toda a organização para este estágio | Replicação do padrão do time para todos os squads. Métricas de impacto medidas centralmente. |
Os 6 estágios do SDLC
Shift Left = detectar problemas o mais cedo possível — antes do commit, não depois do deploy. IA torna Shift Left economicamente viável ao reduzir o custo de escrever testes e de fazer review:
Objetivo da fase
Estabelece políticas, padrões e mecanismos de controle que asseguram uso responsável, rastreável e consistente de IA em toda a engenharia, reduzindo risco e variabilidade. O pacote gerado é calibrado pelo tamanho da organização, exposição regulatória e tolerância ao risco.
8 Políticas de uso de IA
7 Padrões Técnicos
[ai-assisted] ou convenção definida pelo time. Facilita auditoria e rastreabilidade.6 Guardrails (por criticidade)
Processo de revisão em 5 etapas
| # | Etapa | Responsável | SLA |
|---|---|---|---|
| 1 | Proposta inicial: Engenheiro documenta ferramenta/prática com casos de uso e riscos identificados | Engenheiro proponente | – |
| 2 | Revisão de segurança: Security Engineering avalia riscos de dados, acesso e licença | Security Engineering | 3 dias úteis |
| 3 | Piloto controlado: Time AI Enablers coordena uso restrito em ambiente isolado por 2 semanas | Time AI Enablers | 2 semanas |
| 4 | Avaliação de impacto: Resultados do piloto documentados com métricas de ganho e riscos observados | Time AI Enablers | 5 dias úteis |
| 5 | Decisão e comunicação: Aprovação, rejeição ou aprovação condicional com comunicação para toda a engenharia | CTO / VP Engineering | 2 dias úteis |
AI Security Posture Sugerido
Segurança de IA não é só "não vaze PII". É uma disciplina própria que cobre como modelos são manipulados, como agentes agem além do autorizado, como infraestrutura de IA é comprometida e como a organização detecta e responde a esses riscos. Os blocos abaixo refletem o que equipes de engenharia líderes estão implementando em 2025–2026.
Framework de defesa em 3 camadas (Input · Output · Runtime)
Pequenas: implementar ao menos PII sanitization + prompt injection detection. Médias+: policy classification automatizada no pipeline.
Pequenas: ao menos nenhum output raw + schema validation para outputs estruturados. Grandes: sensitive data scan automático em 100% dos outputs de produção.
Pequenas: human-in-the-loop para qualquer ação agentic em produção. Médias+: audit log automatizado + plan drift detection. Grandes: runtime guardrails via AI Gateway centralizado.
OWASP LLM Top 10 · 2025 — riscos e controles práticos
| ID | Risco | Controle prático | Tamanho |
|---|---|---|---|
| LLM01 | Prompt Injection — input manipula o modelo a agir fora do escopo | Spotlighting, policy classification, separação instrução/dados no system prompt | Todos |
| LLM02 | Sensitive Information Disclosure — modelo expõe IP, dados de outros usuários, credenciais | PII sanitization no input + output, sensitive data scan no output, privacy mode obrigatório | Todos |
| LLM03 | Supply Chain Vulnerabilities — modelos, MCPs e dependências comprometidos | Registry verificado para MCPs (GitHub MCP Registry), scan de provenance, allowlist de modelos aprovados | Médias+ |
| LLM05 | Improper Output Handling — output não validado vai direto para produção ou sistemas críticos | Schema validation, nunca output raw em produção, output scan antes de injetar em pipelines | Todos |
| LLM06 | Excessive Agency — agente executa ações além do autorizado ou do necessário | Least privilege por tool call, human-in-the-loop em ações irreversíveis, plan drift detection | Quando houver uso agentic |
| LLM07 | System Prompt Leakage — modelo reproduz instruções internas no output | Leak detection no output, não incluir dados sensíveis em system prompts, teste regular de extração | Médias+ |
| LLM08 | Vector & Embedding Weaknesses — vazamento cross-context em RAG, dados sensíveis em vector DBs | RBAC no vector store por tenant/usuário, isolamento de namespaces, auditoria de query de embedding | Grandes Sugerido |
| LLM10 | Unbounded Consumption — agente ou usuário consome tokens/compute sem limite, gerando custo ou DoS | Budget alerts por squad, rate limiting por usuário/agente, max_tokens hardcoded, anomaly detection de uso | Todos |
MCP Security — 6 controles mínimos obrigatórios Sugerido
92% dos MCP servers em uso empresarial têm alto risco de segurança — 24% sem nenhuma autenticação. O EU AI Act (em vigor ago/2026) pode responsabilizar organizações por integrações MCP não governadas. Antes de qualquer MCP server ir para produção, os 6 controles abaixo são pré-requisito:
Marketplace de Skills — critérios de publicação e governança Sugerido · Médias e Grandes
Catálogo centralizado de prompts, agentes, templates e skills de IA validados e reutilizáveis pelos squads. Sem um marketplace governado, a organização acaba com dezenas de versões paralelas do mesmo prompt — inconsistentes, sem revisão e sem rastreabilidade. Plataformas de referência: SkillReg, Agent Skills Catalog (SOC 2), PromptFluent Enterprise.
| Critério de publicação | O que implica | Responsável |
|---|---|---|
| Versionamento semântico | Cada skill/prompt tem versão (major.minor.patch). Breaking changes exigem major bump. Squads fixam versão em uso. | Autor + Time AI Enablers |
| RBAC por catálogo | Skills sensíveis (acesso a dados de produção, ações destrutivas) visíveis apenas para roles autorizados. Catálogos por domínio ou squad. | Time AI Enablers |
| Security scan automático | Antes de publicar, scan automatizado para: prompt injection patterns, data leakage, referência a credenciais hardcoded, PII em exemplos. | Security Engineering |
| Aprovação do Time AI Enablers | Nenhum skill vai para o catálogo público sem revisão e aprovação. Skills experimentais vão para namespace de rascunho primeiro. | Time AI Enablers |
| Métricas de uso e deprecação | Skills sem uso por 90 dias são marcados como deprecated. Skills com feedback negativo recorrente são removidos ou revisados. | Time AI Enablers |
Objetivo da fase
Expande a adoção de IA para todas as equipes de engenharia, operacionalizando a estrutura de governança e os aprendizados das fases anteriores para gerar impacto organizacional amplo e sustentável. A conclusão desta fase marca o ciclo completo do framework.
Plano de rollout em ondas (determinístico por tamanho)
| Tamanho da engenharia | Nº de ondas | Duração sugerida por onda | Estratégia |
|---|---|---|---|
| 1–9 engenheiros | 1 onda | 4–6 semanas | Adoção simultânea de todo o time. Piloto e escala são a mesma fase. |
| 10–29 engenheiros | 2 ondas | 6–8 semanas cada | Onda 1: 50% do time (squads mais maduros). Onda 2: restante com playbook documentado da onda 1. |
| 30–99 engenheiros | 3 ondas | 8 semanas cada | Onda 1: time piloto + 1 squad adjacente. Ondas 2–3: rollout por afinidade técnica e disponibilidade de campeões. |
| 100–299 engenheiros | 4 ondas | 6–10 semanas cada | Onda 1: squads com campeões de IA formados. Ondas subsequentes: rollout por vertical de produto. |
| 300+ engenheiros | 5 ondas | 8–12 semanas cada | Ondas por business unit ou domínio. Requer estrutura de campeões por squad e plataforma interna de IA. |
9 métricas em 3 camadas
3 Cerimônias recorrentes
| Cerimônia | Frequência | Participantes | Objetivo |
|---|---|---|---|
| Weekly Sync | Semanal · 30 min | Time central de adoção de IA | Revisar métricas da semana, desbloquear impedimentos, alinhar prioridades da próxima onda |
| Campeões Champions | Quinzenal · 45 min | Time central + campeões de IA por squad | Compartilhar aprendizados entre squads, alinhar boas práticas, identificar casos de uso replicáveis |
| Retro de Adoção | Mensal · 60 min | Time central + liderança técnica | Avaliar progresso das métricas, ajustar estratégia de rollout, comunicar resultados para a organização |
8 Riscos de escala e mitigações
5 Critérios de conclusão do framework