Pular para o conteúdo

A empresa de IA que desafiou o Pentágono e a ordem de Trump: entenda por que a briga da Anthropic nos EUA afeta a regulamentação global da tecnologia militar

Uma batalha em Washington com implicações mundiais para a inteligência artificial

Enquanto o mundo observava operações militares na Venezuela e a iminência de um conflito com o Irã, uma batalha silenciosa se desenhava em Washington. Este confronto, envolvendo uma empresa de inteligência artificial do Vale do Silício e o Pentágono, sinalizou que o futuro profetizado sobre o papel da IA em guerras já havia chegado.

A empresa, Anthropic, recusou-se a seguir ordens do Pentágono, que a tratou como uma ameaça. Contudo, sua tecnologia continuou sendo utilizada pelas Forças Armadas dos EUA, que não podiam se dar ao luxo de ficar sem ela. Este evento marca a primeira vez que uma empresa de IA confronta um aparato militar, recusando-se a eliminar os limites éticos de sua tecnologia.

A disputa levanta questões cruciais que afetam a todos: até que ponto os humanos estão delegando decisões irreversíveis e letais a máquinas? Quem realmente decide como a IA é usada? Tais preocupações são destacadas por especialistas da Universidade de Oxford, que veem o episódio como uma revelação de lacunas antigas na governança da IA em operações militares, conforme informações divulgadas pelo G1, baseadas em reportagem da BBC.

A Origem do Conflito: IA na Operação Maduro

O estopim da disputa foi a operação que culminou na captura do então presidente venezuelano Nicolás Maduro, em 3 de janeiro. A ferramenta Claude, desenvolvida pela Anthropic, foi utilizada para processar dados e auxiliar na tomada de decisões, segundo informações divulgadas de forma independente pelo Wall Street Journal e pelo site Axios, e posteriormente confirmadas pela revista Time.

Após a captura, um executivo da Anthropic contatou a Palantir, intermediária tecnológica entre o Vale do Silício e o governo dos EUA, para perguntar se seu software havia sido usado na operação. Essa pergunta gerou um alarme em Washington, com Emil Michael, Subsecretário de Defesa, expressando preocupação de que a Anthropic pudesse “desligar seu modelo no meio de uma operação” em conflitos futuros, colocando vidas em risco.

A Anthropic, por sua vez, contesta essa interpretação, afirmando que a pergunta era rotineira e que nunca tentou limitar o uso do Pentágono. No entanto, a tensão rapidamente escalou, culminando em uma exigência do Pentágono por acesso irrestrito à tecnologia da Anthropic para “todos os usos legais”, algo que a empresa se recusou a conceder.

Linhas Vermelhas e a Reação do Pentágono

A Anthropic, fundada em 2021 por ex-pesquisadores da OpenAI, tem uma premissa clara: a inteligência artificial representa um dos maiores riscos existenciais para a humanidade, e seu desenvolvimento deve ser feito com segurança. Em 2025, a empresa assinou um contrato de 200 milhões de dólares com o Departamento de Defesa, o primeiro de seu tipo, integrando seus modelos em fluxos de trabalho de missão.

Este contrato estabelecia duas “linhas vermelhas” inegociáveis: o Claude não poderia ser usado para vigilância doméstica em massa ou para armas totalmente autônomas. Dario Amodei, CEO da Anthropic, justificou o apoio às forças militares dos EUA, mas com a ressalva de que a IA não deveria nos tornar “mais parecidos com nossos adversários autocráticos”. Ele também argumentou que os sistemas de IA de última geração não são confiáveis o suficiente para armas autônomas.

A recusa da Anthropic em ceder resultou em Pete Hegseth, Secretário de Defesa de Trump, classificando a empresa como um “risco para a cadeia de suprimentos”, um rótulo geralmente reservado para rivais estrangeiros. A Anthropic processou o Pentágono por exceder sua autoridade, e o presidente Donald Trump ordenou que todas as agências federais parassem de usar a tecnologia da empresa, criticando-a publicamente como “progressista” (‘woke’) e “radical de esquerda”.

O Vácuo Legal na Era da Autonomia Militar

A relutância do Departamento de Defesa em aceitar os limites impostos por uma empresa privada, embora compreensível, esbarra na ausência de regulamentação legislativa. O Congresso ainda não aprovou leis sobre o uso militar da IA, o que torna a exigência do Pentágono por “todos os usos lícitos” uma questão complexa, já que não há uma definição consensual sobre o que constitui uma arma autônoma letal no direito internacional.

O direito internacional humanitário, construído em torno de decisões humanas, não contempla sistemas que detectam, selecionam e eliminam alvos com mínima ou nenhuma intervenção humana direta. Isso cria um “vácuo de responsabilidade”, onde as estruturas legais existentes não conseguem determinar quem é responsável quando um sistema autônomo comete uma violação. Se um drone com IA matar civis, quem será responsabilizado? A empresa? O programador? O comandante? O direito internacional não oferece uma resposta clara.

Essa discussão, embora tardia para ser preventiva, ainda é oportuna. O debate formal sobre armas autônomas começou em 2013, mas resultou apenas em diretrizes voluntárias. Em 2024, durante uma conferência internacional em Viena, o Ministro das Relações Exteriores da Áustria declarou: “Este é o momento Oppenheimer da nossa geração”, referindo-se à tomada de consciência do poder destrutivo da bomba atômica, mas alertando que, diferentemente das armas nucleares, os sistemas autônomos são baratos, produzidos em massa e difíceis de rastrear.

O Impacto Global e a Resposta do Mercado

Enquanto advogados e diplomatas debatem, a tecnologia avança e já está sendo empregada. Na Ucrânia, em dezembro de 2024, forças realizaram a primeira operação totalmente não tripulada perto de Kharkiv, utilizando dezenas de veículos terrestres autônomos e drones que operavam de forma independente, mesmo sem supervisão humana, conforme as comunicações eram bloqueadas. Os drones já são responsáveis por 70% a 80% das vítimas nessa guerra, segundo estimativas da inteligência europeia.

No Golfo, o almirante Brad Cooper, chefe do Comando Central dos EUA, reconheceu a IA como fundamental para identificar alvos, permitindo que os EUA “analisem vastas quantidades de dados em segundos, para que nossos líderes possam tomar decisões mais inteligentes e mais rápidas do que o inimigo”. A lógica da velocidade impulsiona a adoção da inteligência artificial em cenários de guerra.

A história da Anthropic teve um desfecho paradoxal. Após Dario Amodei declarar: “Não podemos, em sã consciência, atender ao pedido deles”, a Anthropic perdeu o contrato. Horas depois, a OpenAI, sua rival, fechou um acordo com o Departamento de Defesa. No entanto, o aplicativo Claude da Anthropic ultrapassou o ChatGPT da OpenAI na App Store da Apple pela primeira vez, registrando mais de um milhão de novos usuários diários e alcançando o primeiro lugar em mais de 20 países, impulsionando suas vendas.

O episódio também gerou um apoio significativo à Anthropic. Coalizões de trabalhadores da Amazon, Google, Microsoft e OpenAI pediram publicamente que suas empresas seguissem o exemplo da Anthropic. Dezenas de cientistas e pesquisadores de empresas concorrentes assinaram um parecer jurídico em apoio à empresa. Um general aposentado da Força Aérea, que liderou o controverso Projeto Maven, expressou simpatia pela posição da Anthropic. Além disso, a empresa consolidou o apoio de seus próprios engenheiros, um ativo valioso no competitivo mercado de talentos do Vale do Silício.

Este conteúdo foi útil?

Clique nas estrela para avaliar!

Média de avaliação 0 / 5. Vote count: 0

Ainda não há votos! Seja o primeiro a avaliar.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *