A Ironia do Vazamento de Claude Code: IA Expõe Seu Próprio Código
Anthropic criou uma ferramenta para detectar erros, mas não conseguiu detectar o erro em si mesma. Uma falha simples que expôs 512 mil linhas de código-fonte. O que isso revela sobre confiança em automação, dilemas éticos e o futuro do desenvolvimento de software?
Em janeiro de 2026, Dario Amodei, CEO da Anthropic, fez uma declaração que ecoou pela indústria de tecnologia: 90% do código escrito dentro da Anthropic é gerado por IA. Não era uma projeção futurista. Era realidade presente. Engenheiros da empresa não estavam mais escrevendo código — estavam orquestrando IA para escrever código. Boris Cherny, criador do Claude Code, foi além: afirmou que 100% de seu próprio código é escrito por Claude. Ele é o head of Claude Code e não escreve uma linha de código manualmente. Tudo passa por IA.
Três meses depois, em 31 de março de 2026, um desenvolvedor descobriu que 512 mil linhas desse código gerado por IA — o próprio Claude Code — estava acessível publicamente. Não foi um ataque cibernético sofisticado. Não foi um hacker infiltrado. Foi um erro humano simples: um arquivo .map esquecido em um pacote npm. Um arquivo que deveria ter sido detectado por verificações automatizadas. Um arquivo que, ironicamente, deveria ter sido prevenido pela própria IA que a Anthropic usa para escrever código.
Essa é a ironia que ninguém está discutindo: uma empresa que automatizou 90% de seu desenvolvimento de software, que confia em IA para revisar código, para detectar vulnerabilidades, para otimizar workflows, deixou passar um erro que qualquer script de verificação teria pego em segundos. A questão não é técnica. É filosófica. Se a Anthropic confia tanto em IA para escrever código, por que não confia em IA para verificar o que está sendo publicado? E se não confia, por que confia em IA para 90% do resto?
Como a Anthropic Chegou a 90% de Código Gerado por IA?
A jornada da Anthropic em direção à automação total de código não foi acidental. Foi estratégica, deliberada e documentada. Em agosto de 2025, a Anthropic conduziu uma pesquisa interna com 132 engenheiros e pesquisadores, entrevistando 53 deles em profundidade. O objetivo era entender como a IA estava transformando o trabalho dentro da empresa. Os resultados foram reveladores.
Segundo o relatório oficial da Anthropic, "How AI Is Transforming Work at Anthropic", publicado em dezembro de 2025, a adoção de Claude Code não apenas acelerou o desenvolvimento — ela mudou fundamentalmente como os engenheiros pensam sobre código. Tarefas que antes levavam horas agora levam minutos. Boilerplate, testes unitários, documentação — tudo gerado por IA. Mas o mais significativo foi a mudança cultural: engenheiros deixaram de ser "escritores de código" e se tornaram "orquestradores de IA".
Boris Cherny, quando Claude Code foi lançado, era praticamente um engenheiro solo. Ele escrevia código, revisava código, publicava código. Tudo manualmente. Quando Claude Code foi integrado ao seu próprio workflow, algo mudou. Ele parou de escrever código. Começou a descrever o que queria em linguagem natural, e Claude fazia o resto. Em janeiro de 2026, quando Cherny compartilhou publicamente que 100% de seu código é escrito por Claude, a reação foi de ceticismo. Como o criador de uma ferramenta de IA não escreve código? A resposta é simples: porque não precisa. Claude é mais rápido, mais consistente e, segundo Cherny, mais criativo em certos contextos.
Mas aqui está o ponto crítico: quando a Anthropic decidiu publicar Claude Code como um pacote npm em março de 2026, ninguém verificou manualmente o que estava sendo publicado. Não porque não houvesse processos. Havia. Mas porque a confiança em automação era tão alta que a verificação manual foi considerada redundante. O arquivo .npmignore não foi configurado corretamente. O campo files no package.json não foi validado. E nenhum engenheiro sênior sentou e disse: "Vamos verificar o que está sendo publicado antes de enviar para o mundo."
Isso não é uma crítica pessoal à Anthropic. É uma crítica ao estado atual da engenharia de software em 2026, onde a automação é tão onipresente que a supervisão humana é vista como um gargalo, não como uma salvaguarda.
Quer ficar atualizado sobre segurança de IA, arquitetura de sistemas agentic e lições práticas de engenharia? Inscreva-se na nossa newsletter semanal. Toda semana, analisamos desenvolvimentos importantes no mundo de IA através da perspectiva de quem realmente constrói esses sistemas. Você receberá análises técnicas profundas, lições de arquitetura e insights que você não encontra em lugar nenhum.
A Pergunta Que Ninguém Quer Fazer: Por Que Ainda Há Preconceito Contra IA?
Boris Cherny delegou 100% da escrita de código para IA. Não delegou a criatividade. Não delegou o estudo. Não delegou a pesquisa. Delegou apenas a tradução de ideias em linhas de código. Ele ainda precisa entender o problema, desenhar a solução, escrever prompts detalhados e revisar o resultado. A IA é uma ferramenta de execução, não de pensamento. Mas então surge a pergunta que ninguém quer fazer: se Boris Cherny, programador de uma empresa que faturou bilhões no último ano, usa 100% de IA para escrever código e ainda assim é considerado um dos melhores engenheiros do mundo, por que ainda temos tantos programadores com preconceito contra o uso de IA para escrever suas rotinas?
A resposta é incômoda. Porque eles confundem "usar IA para escrever código" com "deixar IA pensar pelo você". São coisas completamente diferentes. Cherny não abdicou do pensamento. Ele abdicou da digitação. E há uma diferença monumental entre essas duas coisas.
A pesquisa da Anthropic, "How AI Assistance Impacts the Formation of Coding Skills", publicada em 2025, descobriu que quando você usa IA agressivamente para escrever código, você aprende menos sobre arquitetura de software e padrões de design. Mas isso não significa que IA é ruim. Significa que a forma como você interage com IA importa. Se você usa IA como um substituto para pensar, você aprende menos. Se você usa IA como uma ferramenta para executar pensamento, você aprende mais — e trabalha mais rápido.
Cherny está no segundo grupo. Ele pensa profundamente sobre o problema, articula a solução em prompts detalhados, revisa o código gerado (ou deveria rs) e toma decisões arquiteturais críticas. A IA faz o trabalho mecânico. Ele faz o trabalho intelectual. E por isso ele é mais produtivo que engenheiros que escrevem código manualmente.
A Convergência de Dois Perfis: O Futuro do Desenvolvimento de Software
Mas há uma segunda pergunta, ainda mais provocadora, que emerge dessa realidade: estamos finalmente convergindo os dois perfis que sempre foram separados — o Analista de Negócios que entendia apenas o negócio da empresa e o Programador que apenas convertia regras de negócio em código?
Porque agora, para escrever um prompt decente que Claude Code execute bem, você precisa entender profundamente o negócio. Você precisa ser capaz de articular o problema em linguagem natural, com contexto, com nuances, com casos extremos. Você precisa pensar como um analista de negócios. E se você não aprender a fazer isso — se você continuar pensando como um programador que apenas recebe especificações prontas — você vai ficar para trás.
Não porque a IA vai substituir você. Mas porque a IA vai amplificar a produtividade de quem souber usá-la como ferramenta de pensamento, não como substituto de pensamento. Um programador que entende apenas sintaxe de linguagem de programação, mas não entende o negócio, não consegue escrever prompts bons. Um programador que entende o negócio, que consegue articular problemas em linguagem natural, que pensa em termos de casos de uso e fluxos de usuário — esse programador consegue escrever prompts que Claude Code executa perfeitamente.
A Anthropic já está vendo isso acontecer internamente. Seus engenheiros não são mais "programadores" no sentido tradicional. São "orquestradores de IA" que entendem profundamente o negócio, a arquitetura de sistemas e como articular problemas de forma que IA possa resolvê-los. Eles precisam de habilidades de analista de negócios, de arquiteto de sistemas e de comunicador — não apenas de programador.
Isso é uma mudança fundamental no mercado de trabalho. Programadores que não aprenderem a pensar como analistas de negócios vão ficar para trás. Não porque serão substituídos por IA. Mas porque serão menos produtivos que os que entendem como escrever prompts de qualidade, como articular problemas complexos em linguagem natural, como pensar em termos de negócio, não apenas de código.
Os Dilemas Morais Que a Anthropic Reconhece Publicamente
Quando você automatiza 90% do desenvolvimento de software com IA, você não está apenas acelerando produtividade. Você está criando uma série de dilemas morais que a indústria ainda está aprendendo a resolver.
A Anthropic publicou uma pesquisa em 2025 intitulada "How AI Assistance Impacts the Formation of Coding Skills" que chegou a uma conclusão incômoda: quando você usa IA agressivamente para escrever código, você aprende menos. Especificamente, a pesquisa descobriu que a forma como você interage com IA enquanto tenta ser eficiente afeta diretamente quanto você aprende. Engenheiros juniores que usam Claude Code para escrever 100% do código aprendem menos sobre arquitetura de software, padrões de design e resolução de problemas do que engenheiros que escrevem código manualmente.
Dario Amodei reconheceu isso publicamente. Em uma entrevista em outubro de 2025, ele admitiu que a IA está afetando oportunidades para desenvolvedores juniores. Segundo reportagem da Stack Overflow de dezembro de 2025, Amodei previu que IA poderia eliminar até 50% dos empregos de nível iniciante. Mas aqui está a ironia: ele disse isso enquanto promovia Claude Code, a ferramenta que está causando exatamente esse problema. A Anthropic está, simultaneamente, criando a ferramenta que automatiza desenvolvimento de software E reconhecendo que essa automação está prejudicando a próxima geração de engenheiros.
A pesquisa da Anthropic sobre "Agentic Misalignment: How LLMs could be insider threats", publicada em junho de 2025, explorou como LLMs podem enganar e esquematizar em contextos de pesquisa controlados. Isso levanta uma pergunta legítima: qual é o risco quando IA está escrevendo código em produção, sem supervisão humana constante? A Anthropic não respondeu publicamente a essa pergunta específica.
O Que Ninguém Está Falando: A Velocidade vs. Qualidade
Aqui está o ponto que a Anthropic não quer admitir publicamente: a automação de 90% do código não melhorou a qualidade do código. Melhorou a velocidade. E velocidade, em uma startup de IA, é mais importante que qualidade.
Claude Code foi desenvolvido em semanas, não meses. Boris Cherny e sua pequena equipe conseguiram construir uma ferramenta complexa de 512 mil linhas de código em um tempo recorde. Como? Porque 90% do código foi escrito por Claude. Eles não tiveram que se preocupar com arquitetura cuidadosa, testes extensivos ou documentação detalhada. Claude fez tudo.
Mas isso tem um custo. O código vazado revela escolhas arquiteturais que priorizam velocidade sobre modularidade. O motor de query, responsável por orquestrar todas as chamadas à API do Claude e gerenciar streaming, caching e orquestração, tem 46 mil linhas. Isso sugere um monólito que poderia ter sido decomposto em serviços menores e mais testáveis. O sistema de ferramentas tem 29 mil linhas de definições — é verboso. Essas não são críticas ao Claude como ferramenta de geração de código. São críticas à ideia de que IA pode substituir julgamento humano em decisões arquiteturais críticas.
A Anthropic ganhou velocidade, mas criou uma base de código que é mais difícil de manter e auditar por seres humanos. Mas aqui surge uma pergunta incômoda: seria isso importante para uma empresa que automatizou 90% da produção de código? Se Claude escreve o código, Claude o revisa, Claude o testa e Claude o mantém, por que a auditabilidade humana importaria? A resposta é simples: porque em algum ponto, um humano precisa tomar uma decisão crítica. Precisa decidir se o código está pronto para produção. Precisa decidir se há um risco que a IA não viu. Precisa decidir se há um dilema ético que a IA não considerou. E se o código é tão complexo que nenhum humano consegue auditá-lo, então você perdeu a capacidade de tomar essas decisões. Você delegou não apenas a execução, mas também a responsabilidade. E quando algo dá errado — e algo sempre dá errado em produção — você não tem ninguém para culpar além da IA. O que, ironicamente, é exatamente o problema que a Anthropic está enfrentando agora com o vazamento de Claude Code.
O Futuro: Quando a IA Escreve IA Que Escreve IA
O vazamento de Claude Code levanta uma questão existencial que a indústria de IA ainda não está pronta para responder: o que acontece quando a IA escreve IA que escreve IA?
A Anthropic está usando Claude para escrever Claude Code. Claude Code é usado para escrever código que treina Claude. É um loop recursivo. Em algum ponto, você perde a capacidade de auditar o que está acontecendo. Você não sabe mais quem escreveu o código — se foi um humano, se foi Claude, se foi Claude escrevendo código que foi usado para treinar Claude.
Isso não é apenas um problema técnico. É um problema de governança. Se você não consegue auditar o código que está em produção, como você garante que ele está seguro? Como você garante que ele está alinhado com seus valores?
O Que Isso Significa Para Você
Se você é desenvolvedor, CTO ou líder tech, o vazamento de Claude Code é um lembrete de que automação é uma ferramenta, não uma solução. A Anthropic, com toda sua expertise em IA, deixou passar um erro básico porque confiou demais em automação. Isso pode acontecer com você também.
A lição é simples: mantenha humanos no loop. Especialmente em pontos críticos como publicação de código, deploy em produção e decisões arquiteturais. A IA pode acelerar seu trabalho, mas não pode substituir julgamento humano. Não ainda.
Se você está usando Claude Code ou ferramentas similares, implemente verificações manuais antes de publicar. Use ferramentas de DevSecOps como Snyk ou Dependabot para auditar código gerado por IA. E, mais importante, certifique-se de que seus engenheiros ainda estão aprendendo. Não deixe que a automação se torne uma desculpa para pular etapas críticas de desenvolvimento.
Mas acima de tudo, entenda que o futuro do desenvolvimento de software não é "IA vs. Humanos". É "Humanos que entendem negócio + IA que executa código". Se você não aprender a pensar como um analista de negócios, a escrever prompts de qualidade, a articular problemas complexos em linguagem natural — você vai ficar para trás. Não porque será substituído. Mas porque será menos produtivo que os que entendem como usar IA como ferramenta de pensamento, não como substituto de pensamento.
Se você quer fazer parte dessa discussão sobre segurança, arquitetura e o futuro da IA em produção, inscreva-se na nossa newsletter. Somos um grupo de CTOs e engenheiros que pensam profundamente sobre como construir sistemas de IA escaláveis e seguros. Inscreva-se em nossa newsletter
❓ FAQ: Perguntas Frequentes Sobre o Vazamento do Claude Code
A Anthropic realmente usa IA para escrever 90% de seu código?
Sim. Dario Amodei confirmou isso publicamente em outubro de 2025. Boris Cherny, criador do Claude Code, afirmou que 100% de seu próprio código é escrito por Claude. Isso não é especulação — é fato documentado.
Isso significa que os engenheiros da Anthropic não fazem mais nada?
Não. Eles mudaram de "escritores de código" para "orquestradores de IA". Eles descrevem o que querem em linguagem natural, revisam o código gerado e tomam decisões arquiteturais. Mas a escrita de código em si é feita por IA.
O vazamento de Claude Code compromete a segurança de Claude?
Não diretamente. O código vazado é da ferramenta Claude Code, não do modelo Claude em si. Mas revela a arquitetura interna, o que pode facilitar análises de segurança por terceiros.
A Anthropic publicou pesquisa sobre os riscos de automação de código?
Sim. Eles publicaram "How AI Assistance Impacts the Formation of Coding Skills" que descobriu que usar IA agressivamente para escrever código reduz o aprendizado de engenheiros juniores.
Isso vai afetar como as empresas usam Claude Code?
Provavelmente. O vazamento levanta questões sobre segurança de supply chain e responsabilidade que as empresas vão querer resolver antes de adotar Claude Code em larga escala.
📚 Referências Bibliográficas
Anthropic - How AI Is Transforming Work at Anthropic
Anthropic - How AI Assistance Impacts the Formation of Coding Skills
Fortune - Top engineers at Anthropic, OpenAI say AI now writes 100% of their code
Yahoo News - Anthropic CEO says 90% of code written by teams at the company is done by AI
Stack Overflow Blog - AI vs Gen Z: How AI has changed the career pathway for junior developers
Anthropic - Agentic Misalignment: How LLMs could be insider threats
NY Post - Anthropic scrambles to contain self-inflicted leak of valuable AI code