A inteligência artificial possui um potencial capaz de destruir as
bases de dissuasão nuclear até 2040, indica um recente documento da
empresa de consultoria estadunidense RAND Corporation.
Os
especialistas em questões de inteligência artificial e segurança nuclear
entrevistados pelos pesquisadores da empresa de consultoria chegaram à
conclusão que até 2040 a inteligência artificial poderia minar os
fundamentos da dissuasão nuclear e a estabilidade estratégica.
De
acordo com alguns especialistas, para perturbar o equilíbrio não seria
sequer necessário incorporar inteligência artificial nas armas
nucleares. Sua mera existência poderia empurrar algum membro do clube
nuclear para realizar o primeiro ataque.
As autoridades dos países
nucleares acreditam que possuir armas nucleares já é uma garantia de
segurança. Acham que a presença de tais armas protege contra um ataque
de outro país, que pode temer um ataque nuclear contra seu território.
Este é o principal postulado da estratégia de dissuasão nuclear. Existe,
além disso, o conceito de paridade nuclear (ou de estabilidade
nuclear), segundo o qual as potências nucleares não devem efetuar
ataques uma contra outra, temendo a destruição mútua.
No entanto,
os conceitos de estabilidade nuclear e de dissuasão nuclear são mais
complicados e têm sobretudo um caráter teórico, porque o mundo ainda não
evidenciou um conflito com uso de armas nucleares desde o bombardeio
das cidades japonesas de Hiroshima e Nagasaki pelos EUA em 1945.
Para
mais, a guerra híbrida, o desenvolvimento de armas nucleares de alta
precisão, o estabelecimento da tríade nuclear (mísseis balísticos,
submarinos portadores de mísseis balísticos e bombardeiros), bem como o
desenvolvimento de novos sistemas de defesa antimíssil — tudo isso
complica o uso destas noções.
Especialistas entrevistados pelos pesquisadores da RAND Corporation
se dividiram em vários grupos. O campo "moderado" acredita que a
inteligência artificial vai aperfeiçoar os sistemas de armas nucleares
sem influenciar a estratégia de dissuasão e de paridade nuclear. De
acordo com eles, até 2040, a coleta e processamento de dados de
inteligência sobre a preparação do adversário para usar armas nucleares e
a escolha de alvos prioritários vai ser um problema sério para a
inteligência artificial.
Por outro lado, os alarmistas argumentam
que, em qualquer caso, a inteligência artificial representa uma ameaça
para a estabilidade nuclear. Eles acreditam que é suficiente que uma
potência nuclear decida que a inteligência artificial dos sistemas de
defesa inimigos possa neutralizar sua resposta e por isso descarte a
tática de retaliação e opte pela estratégia de ataque preventivo,
lançando-se, ao mesmo tempo, no aumento do seu arsenal nuclear.
Outro
grupo de especialistas diz que a inteligência artificial pode ser usada
em sistemas de armas nucleares, o que pode ajudar a reforçar a
estabilidade nuclear em vez de destruí-la. Por um lado, os países
possuidores de armas nucleares "inteligentes" e de sistemas de defesa
contra elas podem decidir que o uso dessas armas levaria ao extermínio
mútuo garantido, o que pode servir como fator de dissuasão. Por outro
lado, sistemas "inteligentes" poderiam dar aos governos um sentimento de
superioridade tecnológica que garanta a vitória em uma possível guerra.
Neste caso, uma guerra nuclear torna-se mais real.
No entanto,
todos os especialistas entrevistados pela RAND Corporation concordaram
que, até 2040, nenhum país nuclear ousará criar uma arma de apocalipse
com inteligência artificial, isto é, uma arma capaz de iniciar uma
resposta nuclear mesmo se todos os líderes do país forem eliminados por
um ataque nuclear inimigo.
Em julho de 2015, Elon Musk, Stephen
Hawking, Noam Chomsky, Steve Wozniak e muitos outros cientistas, homens
de negócios, celebridades, pesquisadores e especialistas em robótica e
inteligência artificial, assinaram uma carta aberta alertando os
produtores de armas contra o desenvolvimento de sistemas de combate
dotados de inteligência artificial. Os autores do documento afirmaram
que poucos anos nos separam do desenvolvimento de sistemas de combate
autônomos, capazes de tomar a decisão de abrir fogo de forma
independente.
"Quando tais sistemas aparecerem no mercado negro, e
isso é apenas uma questão de tempo, eles vão cair nas mãos de
terroristas, ditadores que desejam controlar melhor o seu povo, ou de
líderes militares que irão utilizá-las para fins de limpeza étnica.
Armas autônomas são ideais para assassinatos encomendados, destruição de
nações, repressão de rebeliões e limpezas étnicas", advertem os autores
do documento.
Do JB
0 Comentários