A inteligência artificial possui um potencial capaz de destruir as bases de dissuasão nuclear até 2040, indica um recente documento da empresa de consultoria estadunidense RAND Corporation.

Os especialistas em questões de inteligência artificial e segurança nuclear entrevistados pelos pesquisadores da empresa de consultoria chegaram à conclusão que até 2040 a inteligência artificial poderia minar os fundamentos da dissuasão nuclear e a estabilidade estratégica.
De acordo com alguns especialistas, para perturbar o equilíbrio não seria sequer necessário incorporar inteligência artificial nas armas nucleares. Sua mera existência poderia empurrar algum membro do clube nuclear para realizar o primeiro ataque.
As autoridades dos países nucleares acreditam que possuir armas nucleares já é uma garantia de segurança. Acham que a presença de tais armas protege contra um ataque de outro país, que pode temer um ataque nuclear contra seu território. Este é o principal postulado da estratégia de dissuasão nuclear. Existe, além disso, o conceito de paridade nuclear (ou de estabilidade nuclear), segundo o qual as potências nucleares não devem efetuar ataques uma contra outra, temendo a destruição mútua.
No entanto, os conceitos de estabilidade nuclear e de dissuasão nuclear são mais complicados e têm sobretudo um caráter teórico, porque o mundo ainda não evidenciou um conflito com uso de armas nucleares desde o bombardeio das cidades japonesas de Hiroshima e Nagasaki pelos EUA em 1945.
Para mais, a guerra híbrida, o desenvolvimento de armas nucleares de alta precisão, o estabelecimento da tríade nuclear (mísseis balísticos, submarinos portadores de mísseis balísticos e bombardeiros), bem como o desenvolvimento de novos sistemas de defesa antimíssil — tudo isso complica o uso destas noções.
Especialistas entrevistados pelos pesquisadores da RAND Corporation se dividiram em vários grupos. O campo "moderado" acredita que a inteligência artificial vai aperfeiçoar os sistemas de armas nucleares sem influenciar a estratégia de dissuasão e de paridade nuclear. De acordo com eles, até 2040, a coleta e processamento de dados de inteligência sobre a preparação do adversário para usar armas nucleares e a escolha de alvos prioritários vai ser um problema sério para a inteligência artificial.
Por outro lado, os alarmistas argumentam que, em qualquer caso, a inteligência artificial representa uma ameaça para a estabilidade nuclear. Eles acreditam que é suficiente que uma potência nuclear decida que a inteligência artificial dos sistemas de defesa inimigos possa neutralizar sua resposta e por isso descarte a tática de retaliação e opte pela estratégia de ataque preventivo, lançando-se, ao mesmo tempo, no aumento do seu arsenal nuclear.
Outro grupo de especialistas diz que a inteligência artificial pode ser usada em sistemas de armas nucleares, o que pode ajudar a reforçar a estabilidade nuclear em vez de destruí-la. Por um lado, os países possuidores de armas nucleares "inteligentes" e de sistemas de defesa contra elas podem decidir que o uso dessas armas levaria ao extermínio mútuo garantido, o que pode servir como fator de dissuasão. Por outro lado, sistemas "inteligentes" poderiam dar aos governos um sentimento de superioridade tecnológica que garanta a vitória em uma possível guerra. Neste caso, uma guerra nuclear torna-se mais real.
No entanto, todos os especialistas entrevistados pela RAND Corporation concordaram que, até 2040, nenhum país nuclear ousará criar uma arma de apocalipse com inteligência artificial, isto é, uma arma capaz de iniciar uma resposta nuclear mesmo se todos os líderes do país forem eliminados por um ataque nuclear inimigo.
Em julho de 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak e muitos outros cientistas, homens de negócios, celebridades, pesquisadores e especialistas em robótica e inteligência artificial, assinaram uma carta aberta alertando os produtores de armas contra o desenvolvimento de sistemas de combate dotados de inteligência artificial. Os autores do documento afirmaram que poucos anos nos separam do desenvolvimento de sistemas de combate autônomos, capazes de tomar a decisão de abrir fogo de forma independente.
"Quando tais sistemas aparecerem no mercado negro, e isso é apenas uma questão de tempo, eles vão cair nas mãos de terroristas, ditadores que desejam controlar melhor o seu povo, ou de líderes militares que irão utilizá-las para fins de limpeza étnica. Armas autônomas são ideais para assassinatos encomendados, destruição de nações, repressão de rebeliões e limpezas étnicas", advertem os autores do documento.

Do JB