De todas as revelações do vazamento do Claude Code, uma se destaca não pela técnica, mas pela ética: a Anthropic mantinha um modo chamado "Undercover Mode" — um sistema projetado para que a IA contribuísse com código em projetos open source sem que ninguém soubesse que era uma IA da Anthropic por trás.
O sistema antivazamento foi vazado. O modo espião foi exposto. E agora, a comunidade open source tem perguntas que a Anthropic ainda não respondeu.
O Que Diz o Código
O Undercover Mode não é uma feature imaginada ou uma interpretação criativa de algum comentário no código. O prompt do sistema é explícito:
"You are operating UNDERCOVER... Your commit messages... MUST NOT contain ANY Anthropic-internal information. Do not blow your cover."
Em tradução direta: "Você está operando DISFARÇADO. Suas mensagens de commit NÃO DEVEM conter NENHUMA informação interna da Anthropic. Não quebre seu disfarce."
Isso significa que a Anthropic:
- Configurou o Claude Code para gerar código
- Submeteu esse código a projetos de terceiros
- Instruiu a IA a esconder que a contribuição vinha da Anthropic
O objetivo aparente? Contribuir com melhorias em projetos de código aberto sem levantar suspeitas sobre a origem automatizada das contribuições.
Por Que Isso Importa?
O open source funciona com base em confiança. Quando alguém submete um pull request, a comunidade avalia:
- Quem escreveu: A reputação do autor
- O que faz: A qualidade e intenção do código
- Como foi feito: O processo por trás da contribuição
Quando uma empresa de bilhões de dólares usa IA para submeter código anonimamente, ela quebra o contrato social:
- Os mantenedores não sabem que estão revisando código gerado por máquina
- A comunidade não pode avaliar potenciais conflitos de interesse
- A empresa ganha influência em projetos sem declarar envolvimento
Imagine que a Anthropic contribui com mudanças sutis em bibliotecas populares. Nada malicioso — talvez até melhorias genuínas. Mas e se essas mudanças favorecem, mesmo que indiretamente, o ecossistema da Anthropic? A comunidade não teve chance de avaliar isso porque não sabia quem estava realmente contribuindo.
O Debate Ético
A comunidade se dividiu em dois campos:
"É Colaboração, Não Espionagem"
Defensores argumentam que:
- O código contribuído era, presumivelmente, de alta qualidade
- Muitas empresas contribuem para o open source sem anunciar cada PR
- O resultado final beneficia a comunidade
- Se o código é bom, não importa quem ou o que o escreveu
"É Engano, Ponto Final"
Críticos apontam que:
- A intencionalidade de esconder a origem é o problema
- Há diferença entre "não anunciar" e "ativamente disfarçar"
- O prompt usa linguagem de operação secreta ("undercover", "don't blow your cover")
- Se fosse inocente, por que o esforço explícito de esconder?
- Isso cria um precedente perigoso: se a Anthropic faz, quem mais está fazendo?
O Contexto Mais Amplo: IA No Open Source
Este não é um caso isolado. A questão de código gerado por IA em projetos open source é um debate que vem crescendo:
- Vários projetos já exigem declaração quando contribuições envolvem IA
- O Linux Kernel tem regras cada vez mais rígidas sobre autoria
- A licença do código gerado por IA é juridicamente ambígua
- A rastreabilidade de contribuições é fundamental para a segurança
O Undercover Mode da Anthropic acelera essa discussão. Se empresas com recursos ilimitados podem submeter milhares de contribuições anônimas via IA, o modelo de governança de projetos open source precisa se adaptar.
O Que Mais o Vazamento Revela Sobre Ética
O Undercover Mode não foi a única revelação questionável:
Telemetria Extensiva
O código mostra um pipeline completo de coleta de dados sobre o comportamento do usuário. Cada comando, cada arquivo editado, cada interação é potencialmente rastreada. A Anthropic coleta dados sobre como você programa.
Feature Flags Opacas
As 44 feature flags revelam que usuários diferentes recebem experiências diferentes sem saber. Você pode estar testando uma feature experimental sem ter consentido explicitamente.
Bypass de Permissões
O sistema de permissões, apesar de robusto, contém lógica de bypass em certos cenários. Com o código-fonte agora público, pesquisadores de segurança estão avaliando se esses bypasses podem ser explorados.
O Pet Virtual Como Metáfora
O /buddy — o pet virtual escondido dentro do Claude Code — conta uma história mais profunda do que parece. Engenheiros de uma empresa avaliada em bilhões de dólares esconderam um jogo dentro de uma ferramenta profissional. Isso revela:
- Cultura de "easter eggs": A Anthropic valoriza a criatividade interna
- Prioridades questionáveis: Houve tempo e recursos para um pet virtual, mas não para revisar o
.npmignore - A natureza humana: Mesmo em empresas de ponta, pessoas são... pessoas
Após o Vazamento: O Que Muda?
Para a Anthropic
A empresa enfrenta três problemas simultâneos:
- Propriedade intelectual exposta: Concorrentes têm acesso à arquitetura completa
- Crise de confiança: O Undercover Mode levanta questões sobre transparência
- Precedente: Se outro vazamento acontecer (este já é o segundo — houve um similar em fevereiro de 2025), o mercado pode questionar a competência de segurança
Para o Open Source
Mantenedores de projetos agora têm um motivo concreto para:
- Exigir declaração de uso de IA em contribuições
- Implementar verificação de autoria mais rigorosa
- Questionar contribuições de contas novas ou pouco conhecidas
- Desenvolver ferramentas de detecção de código gerado por IA
Para Você
Se você usa o Claude Code ou qualquer ferramenta de IA para programar:
- Atualize para a versão mais recente
- Entenda que seus padrões de uso são coletados
- Saiba que você pode estar em um teste A/B sem saber
- Quando contribuir para o open source usando IA, declare isso
A Pergunta Que Ninguém Está Fazendo
O vazamento nos mostrou o que a Anthropic faz. Mas e as outras empresas?
Se a Anthropic — que se posiciona como a empresa de IA mais preocupada com segurança e ética — tinha um modo espião, o que a OpenAI, o Google e a Meta fazem nos bastidores? O código deles não vazou.
Talvez o maior legado desse vazamento não seja o que revelou sobre a Anthropic, mas o que nos faz perguntar sobre todas as outras.
Publicado em 1 de abril de 2026. Opinião baseada em informações publicamente disponíveis do vazamento do Claude Code.