Líder de segurança de IA diz que 'mundo está em perigo' e renuncia para estudar poesia

Variedades IA 12/02/2026 16:00 Liv McMahon https://www.bbc.com/news/articles/c62dlvdq3e3o

A responsável pela segurança da IA da Anthropic renuncia com um aviso enigmático de que o "mundo está em perigo".

Uma pesquisadora de segurança de IA deixou a empresa americana Anthropic com um aviso enigmático de que o "mundo está em perigo". Em sua carta de demissão compartilhada no X, Mrinank Sharma disse à empresa que estava saindo em meio a preocupações sobre IA, armas biológicas e o estado do mundo em geral. Ele disse que, em vez disso, buscaria escrever e estudar poesia e se mudar para o Reino Unido para "se tornar invisível". O anúncio chega na mesma semana em que uma pesquisadora da OpenAI disse que havia renunciado, compartilhando preocupações sobre a decisão da fabricante do ChatGPT de implantar anúncios em seu chatbot. A Anthropic, mais conhecida por seu chatbot Claude, lançou uma série de comerciais voltados para a OpenAI, criticando a decisão da empresa de incluir anúncios para alguns usuários. A empresa, que foi formada em 2021 por uma equipe dissidente de funcionários da OpenAI, se posicionou como tendo uma abordagem mais orientada para a segurança na pesquisa de IA em comparação com seus rivais. Sharma liderou uma equipe que pesquisou salvaguardas de IA. Ele disse em sua carta de demissão que suas contribuições incluíram investigar por que os sistemas de IA generativa bajulam os usuários, combater os riscos de bioterrorismo assistido por IA e pesquisar "como os assistentes de IA poderiam nos tornar menos humanos". Mas ele disse que, apesar de ter gostado de seu tempo na empresa, ficou claro que "chegou a hora de seguir em frente". "O mundo está em perigo. E não apenas da IA ou armas biológicas, mas de uma série de crises interconectadas que se desenrolam neste momento", escreveu Sharma. Ele disse que havia "visto repetidamente como é difícil realmente deixar nossos valores governarem nossas ações" - inclusive na Anthropic, que ele disse "constantemente enfrenta pressões para deixar de lado o que mais importa". Sharma disse que, em vez disso, buscaria um diploma em poesia e escrita. Ele acrescentou em uma resposta: "Vou voltar para o Reino Unido e me deixar tornar invisível por um período de tempo". Aqueles que deixam as empresas de IA que se destacaram no mais recente boom de IA generativa - e procuraram reter talentos com salários ou ofertas de indenização enormes - geralmente o fazem com muitas ações e benefícios intactos. A Anthropic se autodenomina uma "corporação de benefício público dedicada a garantir os benefícios [da IA] e mitigar seus riscos". Em particular, ela se concentrou em evitar aqueles que acredita serem representados por sistemas de fronteira mais avançados, como se tornarem desalinhados com os valores humanos, mal utilizados em áreas como conflitos ou muito poderosos. Ela lançou relatórios sobre a segurança de seus próprios produtos, incluindo quando disse que sua tecnologia havia sido "armamentizada" por hackers para realizar ataques cibernéticos sofisticados. Mas também foi alvo de escrutínio sobre suas práticas. Em 2025, ela concordou em pagar 1,5 bilhão de dólares (1,1 bilhão de libras) para resolver uma ação coletiva movida por autores que disseram que a empresa roubou seu trabalho para treinar seus modelos de IA. Como a OpenAI, a empresa também busca aproveitar os benefícios da tecnologia, inclusive por meio de seus próprios produtos de IA, como seu rival ChatGPT Claude. Ela lançou recentemente um comercial que criticava a decisão da OpenAI de começar a veicular anúncios no ChatGPT. O chefe da OpenAI, Sam Altman, havia dito anteriormente que odiava anúncios e os usaria como "último recurso". Na semana passada, ele rebateu a descrição do anúncio disso como uma "traição" - mas foi ridicularizado por sua longa postagem criticando a Anthropic. Escrevendo no New York Times na quarta-feira, a ex-pesquisadora da OpenAI Zoe Hitzig disse que tinha "reservas profundas sobre a estratégia da OpenAI". "As pessoas contam aos chatbots sobre seus medos médicos, seus problemas de relacionamento, suas crenças sobre Deus e a vida após a morte", ela escreveu. "A publicidade baseada nesse arquivo cria um potencial para manipular os usuários de maneiras que não temos as ferramentas para entender, muito menos evitar."

Chama no Zap

(66) 98408-0740