Entre nos nossos canais do Telegram e WhatsApp para notícias em primeira mão. Telegram: [link do Telegram]
WhatsApp: [link do WhatsApp]
O uso da inteligência artificial em operações militares ganhou novo destaque após a revelação de que a ferramenta Claude, desenvolvida pela empresa Anthropic, teria sido empregada na operação que resultou na captura do ex-presidente venezuelano Nicolás Maduro, em Caracas.
A informação foi divulgada pelos jornais The Wall Street Journal e Fox News. Segundo as reportagens, a operação foi conduzida por forças especiais dos Estados Unidos e também incluiu a detenção da esposa de Maduro. Ambos teriam sido levados ao território norte-americano para responder a acusações relacionadas ao narcotráfico.
De acordo com as publicações, o sistema de inteligência artificial teria sido utilizado por meio de um acordo com a Palantir Technologies, cujas plataformas são frequentemente empregadas pelo Departamento de Defesa dos EUA e por órgãos federais de segurança. Nem a Anthropic nem o Pentágono confirmaram oficialmente o uso da ferramenta na ação, alegando protocolos de confidencialidade.
Em nota enviada aos veículos, um porta-voz da Anthropic afirmou que a empresa não comenta se o Claude — ou qualquer outro modelo de IA — foi utilizado em operações específicas, classificadas ou não. A companhia declarou ainda que o uso da tecnologia, tanto no setor privado quanto no governo, deve seguir suas políticas internas, que proíbem a facilitação de violência, o desenvolvimento de armas e atividades de vigilância.
Fontes ouvidas pela Fox News Digital disseram que a Anthropic monitora o uso classificado e não classificado de seus sistemas e que confia no cumprimento das diretrizes por parte dos parceiros.
A eventual aplicação de ferramentas de IA em missões de segurança nacional ocorre em meio a um debate sobre regulação e limites éticos do setor. Segundo o The Wall Street Journal, integrantes do governo do ex-presidente Donald Trump avaliam a possibilidade de encerrar um contrato firmado entre o Pentágono e a Anthropic, que pode chegar a US$ 200 milhões. O impasse envolveria divergências sobre restrições defendidas pela empresa, incluindo salvaguardas no uso militar e na exportação de hardware sensível para IA.
O diretor-executivo da Anthropic, Dario Amodei, tem defendido publicamente a criação de regras mais rígidas para o emprego da inteligência artificial, especialmente em contextos bélicos. De acordo com as reportagens, a principal preocupação da companhia seria evitar o uso da tecnologia em missões letais autônomas e em atividades de vigilância doméstica.
A Anthropic foi a primeira desenvolvedora de IA a firmar contrato oficial para atuar em operações classificadas do Departamento de Defesa dos Estados Unidos, conforme o The Wall Street Journal. Ferramentas como o Claude podem ser aplicadas em tarefas que vão desde a síntese de documentos até o apoio à coordenação de sistemas autônomos, incluindo drones.
O setor de tecnologia militar vive um cenário de forte concorrência. Um consórcio que reúne o Google e a OpenAI anunciou a disponibilização da plataforma Gemini para apoio a militares, com foco na análise e geração de relatórios para milhões de usuários.
Durante conferência realizada em janeiro, o secretário de Defesa dos EUA, Pete Hegseth, afirmou que o país não utilizará modelos de IA que imponham restrições à condução de operações militares. A declaração foi interpretada como um sinal das tensões nas negociações com fornecedores de tecnologia.
Ainda segundo a Fox News Digital, sete militares norte-americanos ficaram feridos durante a incursão em território venezuelano. As circunstâncias detalhadas da operação não foram divulgadas oficialmente.
O caso reacende o debate sobre os limites do uso da inteligência artificial em cenários de guerra, ao mesmo tempo em que evidencia a crescente integração entre empresas de tecnologia e estruturas de defesa nacional.
Fonte: gazetabrasil





