A Anthropic, desenvolvedora do modelo de inteligência artificial Claude, protocolou uma ação judicial nesta segunda-feira (9 de março de 2026) contra o governo de Donald Trump. A startup contesta a sanção inédita que a rotulou como “risco à cadeia de suprimentos” após a empresa se recusar a liberar sua tecnologia para o desenvolvimento de armas autônomas e vigilância em massa de cidadãos americanos durante a guerra contra o Irã.
A medida da Casa Branca, anunciada pelo Secretário de Defesa Pete Hegseth, é a primeira contra uma empresa dos EUA desse porte e pode custar bilhões de dólares à Anthropic, além de abrir um precedente sobre quem detém o controle ético da IA: o Estado ou as desenvolvedoras.
+ Trump ordena que órgãos do governo americano deixem de usar IA da Anthropic
Por que a sanção contra a Anthropic é histórica?
A Anthropic é a dona do Claude, o único modelo de IA de larga escala operando atualmente em sistemas do Departamento de Defesa que lidam com informações confidenciais.
O estopim: A crise estourou dias antes da ofensiva de EUA e Israel contra o Irã, iniciada em 28 de fevereiro.
Acusação de “Woke”: Trump criticou a empresa publicamente, chamando-a de “radical de esquerda” por tentar limitar o uso militar da tecnologia.
A Reação do Mercado: Funcionários do Google e da OpenAI divulgaram uma carta em apoio à Anthropic, alertando que a vitória do governo poderia silenciar o debate sobre segurança da IA.
O beneficiário: OpenAI assume contratos do Pentágono
Enquanto a Anthropic recorre à Justiça para evitar o rótulo de “risco à segurança”, a OpenAI moveu-se rapidamente. O CEO Sam Altman anunciou um novo acordo com o Departamento de Defesa, afirmando que a empresa compartilha dos princípios de supervisão humana, mas aceitando os termos exigidos pelo governo Trump. Estima-se que os contratos em jogo cheguem a US$ 200 milhões anuais por empresa.
O processo da Anthropic contra a Casa Branca
1. Por que a Anthropic foi sancionada pelo governo Trump?
A empresa foi rotulada como “risco à cadeia de suprimentos” após negar o uso do modelo Claude para a criação de armas autônomas e vigilância doméstica de americanos.
2. Qual o papel do modelo Claude na guerra contra o Irã?
O Claude é a principal ferramenta de IA usada pelo Pentágono para processar informações confidenciais e missões de inteligência estrangeira.
3. O que a Anthropic alega no processo judicial?
A startup afirma que a sanção é ilegal, viola a liberdade de expressão e prejudica sua reputação, podendo causar prejuízos bilionários.
4. O Google e a Microsoft ainda podem usar a Anthropic?
Dario Amodei, CEO da empresa, afirmou que a sanção tem escopo limitado ao Departamento de Defesa, permitindo a continuidade de parcerias civis e comerciais.