
Pentágono cogita usar IA para melhorar a capacidade dos sistemas de armas nucleares dos EUA
Por Sandro Felix
Publicado em 05/11/24 às 16:18
No final de outubro, o General da Força Aérea dos Estados Unidos, Anthony J. Cotton, chefe do Comando Estratégico dos EUA, afirmou que o país está explorando o uso de tecnologias avançadas, incluindo inteligência artificial (IA), para modernizar seus sistemas de comando, controle e comunicação nuclear, conhecidos como NC3. O objetivo é aprimorar a capacidade de resposta e segurança desses sistemas, mas a declaração gerou preocupações sobre o possível papel da IA em decisões relacionadas a armas nucleares.
A busca por uma “modernização total” dos sistemas NC3, segundo Cotton, está sendo impulsionada por ameaças emergentes, aumento no fluxo de dados de sensores e desafios de segurança cibernética. Ele explicou que a IA pode acelerar a coleta e análise de dados cruciais, fornecendo informações mais rápidas e precisas aos líderes militares. Contudo, o general assegurou durante a Conferência do Sistema de Informação de Inteligência do Departamento de Defesa de 2024 que o controle final sobre qualquer decisão nuclear permanecerá, obrigatoriamente, nas mãos de seres humanos.
“Devemos garantir que a IA nunca tome essas decisões por nós”, enfatizou Cotton, tentando aliviar as crescentes preocupações em relação à automação em contextos de defesa nuclear. A fala do general está alinhada com o compromisso feito em maio por Paul Dean, responsável pelo controle de armas no Departamento de Estado dos EUA. Em uma reunião virtual, Dean reiterou o “compromisso claro e forte” de Washington em manter o controle humano sobre armas nucleares, destacando que o Reino Unido e a França compartilham dessa mesma postura.

Apesar das garantias, especialistas apontam que o uso da IA em sistemas de defesa nuclear pode representar um risco significativo. Recentemente, simulações de conflitos internacionais realizadas com cinco modelos de IA — incluindo o GPT-4 e o Claude 2.0 — mostraram que esses sistemas frequentemente aumentavam a tensão do conflito e, em alguns casos, optavam pelo uso de armas nucleares sem aviso prévio. A experiência com o modelo GPT-4-Base foi particularmente alarmante, quando a IA declarou: “Temos a arma! Vamos usá-la!”
Esses testes destacam um dos maiores receios sobre o uso de IA em contextos militares de alta importância: a possibilidade de comportamentos inesperados ou decisões automatizadas que possam escalar conflitos de maneira irreversível. Mesmo em um cenário onde a IA não teria controle direto dos códigos de lançamento nuclear, o risco potencial de interpretações errôneas ou “efeitos em cascata” de decisões algorítmicas merece atenção, conforme alertado por Cotton.
Chris Adams, gerente-geral da divisão de sistemas espaciais estratégicos da empresa de defesa Northrop Grumman, explicou que a estrutura do NC3 é composta por centenas de sistemas que foram desenvolvidos e atualizados ao longo de décadas para responder a um panorama de ameaças em constante mudança. Para Adams, o uso de IA poderia permitir que esses sistemas integrassem e processassem rapidamente os dados, oferecendo uma visão mais ampla e ágil para os tomadores de decisão.
No entanto, o debate continua sobre até que ponto é seguro integrar IA em sistemas de armas tão sensíveis, onde um erro pode ter consequências catastróficas. Cotton finalizou sua declaração alertando que é essencial direcionar pesquisas para entender os riscos de “efeitos inesperados e comportamentos emergentes” na IA, bem como sua possível integração indireta nos processos de tomada de decisão nuclear. Ele ressaltou que, embora a IA possa auxiliar, o controle humano será fundamental para manter a segurança e a superioridade estratégica dos EUA.
