Anthropic processa o governo dos EUA por considerá-lo um risco

Curtinhas IA 10/03/2026 11:00 Kali Hays https://www.bbc.com/news/articles/cq571w5vllxo

A empresa de inteligência artificial está em uma disputa pública com líderes do governo dos EUA sobre o uso de suas ferramentas como Claude

A empresa de inteligência artificial (IA) Anthropic entrou com uma ação judicial inédita contra o governo dos EUA, alegando que representa um "risco à cadeia de suprimentos". O principal executivo da empresa de IA, Dario Amodei, e o secretário de Defesa, Pete Hegseth, têm se desentendido publicamente devido à recusa da empresa em permitir que os militares usem irrestritamente suas ferramentas de IA. O Pentágono retaliou, tornando a Anthropic a primeira empresa dos EUA a ser rotulada como um "risco à cadeia de suprimentos", mas a Anthropic disse em sua ação judicial na segunda-feira contra uma lista de agências do governo dos EUA que a ação do governo foi "sem precedentes e ilegal". Um porta-voz do Departamento de Defesa dos EUA se recusou a comentar, citando uma política sobre litígios em andamento. "A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por sua liberdade de expressão protegida", escreveu a Anthropic. "Nenhum estatuto federal autoriza as ações tomadas aqui." A ação da Anthropic é contra o escritório executivo do presidente Donald Trump; vários líderes do governo, incluindo Hegseth, o secretário de Estado Marco Rubio e o secretário de Comércio Howard Lutnick; e 16 agências governamentais, incluindo o Departamento de Guerra, o Departamento de Segurança Interna e o Departamento de Energia. O Departamento de Guerra é um nome secundário dado por Trump para o Departamento de Defesa. Liz Huston, porta-voz da Casa Branca, disse à BBC que a Anthropic é "uma empresa woke de esquerda radical" que tenta controlar a atividade militar. "Sob a administração Trump, nossos militares obedecerão à Constituição dos Estados Unidos não aos termos de serviço de nenhuma empresa de IA woke", disse Huston. A Anthropic argumentou contra isso em sua queixa legal apresentada na manhã de segunda-feira no tribunal federal da Califórnia. A empresa disse que Hegseth exigiu que ela removesse quaisquer restrições de uso de seu contrato de defesa, apesar das limitações sobre "guerra autônoma letal" e "vigilância em massa de americanos" sempre terem feito parte de seus contratos com o governo. A Anthropic foi usada pelo governo e militares dos EUA desde 2024 e foi a primeira empresa de IA avançada a ter suas ferramentas implantadas em agências governamentais que realizam trabalhos confidenciais. Anthropic disse que trabalhou com Hegseth na revisão da linguagem do contrato para atender às necessidades de uso militar. Embora estivesse perto de uma negociação bem-sucedida para continuar trabalhando com o departamento, o que incluiria limitações em relação à vigilância e armamento, essas conversas foram interrompidas abruptamente. Em vez disso, o Departamento de Defesa "reuniu as tentativas de compromisso da Anthropic com a desaprovação pública". Enquanto a Anthropic negociava com autoridades da defesa, Trump repreendeu a empresa como administrada por "idiotas de esquerda" e ordenou que todas as agências governamentais parassem de usar ferramentas da Anthropic. Hegseth seguiu rapidamente o anúncio de Trump, rotulando a Anthropic como um "risco à cadeia de suprimentos", o que significa que ferramentas como Claude foram subitamente consideradas não seguras o suficiente para uso governamental. Ele também proibiu qualquer empresa que trabalhasse com o governo de usar ferramentas da Anthropic. Claude é uma das ferramentas de IA mais populares do mundo, sendo o Claude Code uma parte quase onipresente do trabalho realizado por algumas das maiores empresas de tecnologia dos EUA, incluindo Google, Meta, Amazon e Microsoft. Essas empresas também trabalham com o governo. Na semana passada, Microsoft, Google e Amazon disseram que continuariam a usar o Claude fora de qualquer trabalho para agências de defesa. No entanto, a Anthropic alega que foi "irremediavelmente" prejudicada como resultado dos comentários de Trump e Hegseth. "Contratos atuais e futuros com partes privadas também estão em dúvida, pondo em risco centenas de milhões de dólares no curto prazo", disse a empresa. "Além desses danos econômicos imediatos, a reputação da Anthropic e as liberdades da Primeira Emenda estão sob ataque." A Anthropic também observou o "efeito paralisante" na liberdade de expressão que a retaliação da administração Trump está tendo sobre outras entidades. Mas, na tarde de segunda-feira, quase 40 funcionários do Google e da OpenAI entraram com um breve no tribunal apoiando a Anthropic e seus esforços para limitar o uso impróprio da IA, oferecendo sua experiência sobre os perigos representados pela tecnologia sendo usada em escala. "Como grupo, somos diversos em nossa política e filosofias, mas estamos unidos na convicção de que os sistemas de IA de fronteira de hoje apresentam riscos quando implantados para permitir a vigilância em massa doméstica ou a operação de sistemas de armas letais autônomos sem supervisão humana, e que esses riscos exigem algum tipo de proteção, seja por meio de salvaguardas técnicas ou restrições de uso", disseram os signatários do resumo. Google e OpenAI são considerados rivais da Anthropic quando se trata de ferramentas de IA, e ambas as empresas também têm essas ferramentas em uso governamental. O CEO da OpenAI, Sam Altman, admitiu na semana passada ter apressado o novo contrato da empresa com o Departamento de Defesa na sequência da briga da Anthropic com o governo.

Chama no Zap

(66) 98408-0740