Se vocês acham preocupante a utilização de drones armados, imaginem
então se a decisão de matar um inimigo suspeito não for tomada por um
operador em uma longínqua sala de controle, mas pela própria máquina.
Imaginem um avião-robô que estuda a paisagem em terra, reconhece uma
atividade hostil, calcula que existe um risco mínimo de danos, e, então,
sem a participação de um ser humano, aciona o gatilho.
Bem-vindos à guerra do futuro. Enquanto os americanos debatem sobre o
poder do presidente de ordenar o assassinato por drones, uma poderosa
dinâmica - científica, militar e comercial - nos impele para o dia em
que cederemos essa mesma autoridade destrutiva ao software.
Drone AMEE (Autonomous Mapping Evaluation and Evasion) do Filme from Red Planet Movie - Planeta Vermelho.
No próximo mês, várias organizações de defesa dos direitos humanos e
para o controle de armamentos se reunirão em Londres para lançar uma
campanha de proibição dos robôs assassinos antes que eles saiam das
pranchetas dos engenheiros. Entre os que propõem a proibição estão os
que conseguiram conquistar um amplo consenso no mundo civilizado contra o
uso indiscriminado das minas terrestres que aleijam as pessoas. Desta
vez, eles abordarão um problema mais ardiloso, o do controle de
armamentos.
Os argumentos contrários ao aperfeiçoamento de armas totalmente
autônomas, como elas são chamadas, são tanto morais ("elas são
nefastas")e técnicos ("jamais serão tão inteligentes") quanto viscerais
("assustadoras").
"É uma coisa que as pessoas consideram instintivamente errada",
afirma Stephen Goose, diretor da divisão de armas da organização Human
Rights Watch, que assumiu a liderança do desafio à desumanização da
guerra. "O repúdio é realmente violento."
Drone de reconhecimento do Império em Star Wars
Alguns especialistas em robótica duvidam que, algum dia, um
computador consiga distinguir, sem possibilidade de erro, um inimigo de
uma pessoa inocente, e muito menos se uma carga de explosivos será a
resposta acertada ou proporcional. E se o alvo potencial já estiver
ferido, ou tentando se render? Além disso, mesmo que a inteligência
artificial atinja ou ultrapasse um grau de competência humana, ressaltam
os críticos, jamais será capaz de provocar simpatia.
Noel Sharkey, um cientista da computação da Universidade Sheffield e
presidente do Comitê Internacional para o Controle de Armas Robóticas,
conta que uma patrulha americana no Iraque se aproximou de um grupo de
rebeldes; ao apontarem seus fuzis, os soldados se deram conta de que se
tratava de um funeral e os homens carregavam um caixão.
Matar pessoas que acabavam de ser atingidas pela tragédia provocaria o
ódio dos locais contra os Estados Unidos, e os soldados baixaram suas
armas. Será que um robô seria capaz de fazer esse tipo de julgamento? E
há a questão da responsabilidade. Se um robô bombardeia uma escola, quem
é o culpado: o soldado que mandou a máquina para o campo? Seu
comandante? O fabricante? O inventor? Nas instâncias superiores das
forças armadas existem dúvidas quanto ao uso de armas dotadas de
autonomia. Em novembro do ano passado, o Departamento da Defesa emitiu
uma espécie de moratória de dez anos referente ao desenvolvimento desse
tipo de armamento enquanto discute as implicações éticas e as possíveis
salvaguardas.
Trata-se de uma orientação informal, que provavelmente
seria posta de lado em um minuto se soubéssemos que a China vendeu armas
autônomas ao Irã, mas de certo modo é bastante tranquilizador que os
militares não estejam optando por esse recurso sem antes refletir
profundamente sobre a questão.
Comparada às heroicas iniciativas para banir as minas terrestres e
conter a proliferação nuclear, a campanha contra os robôs armados
munidos de licença para matar enfrentam obstáculos totalmente novos.
Drone aéreo Hunter-Killer do Filme Terminator - O exterminador do futuro - Aeronave VTOL desenvolvida no filme pela Skynet.
Por exemplo, não está absolutamente claro onde se deverá traçar uma
linha divisória. Embora o cenário de soldados do tipo ciborgue do
Exterminador do Futuro esteja ainda a décadas de distância, se é que
tudo isso não passa de uma fantasia, os exércitos do mundo inteiro já
estão prevendo a adoção de máquinas com uma capacidade de destruição
cujo poderio em combate vem gradativamente aumentando.
As forças armadas já deixam que as máquinas tomem decisões cruciais
quando a situação evolui rápido demais para debater a intervenção
humana. Os EUA dispõem há muito tempo de navios de guerra da classe
Aegis que utilizam defesas antimísseis automatizadas capazes de
identificar, perseguir e derrubar em segundos ameaças próximas. E o
papel dos robôs está se expandindo até o ponto em que a decisão humana
final de matar será em grande parte predeterminada pela inteligência
produzida pela máquina.
"O problema, por acaso, é o dedo que aperta o gatilho?", pergunta
Peter W. Singer, especialista em guerra do futuro da Brookings
Institution. "Ou será aquela parte que me diz que 'esse cara é mau'?"
Israel é o primeiro país a construir e a utilizar (e vender, para China,
Índia, Coreia do Sul e outros) uma arma que pode realizar um ataque
preventivo sem depender de um ser humano. O drone que paira no ar
chamado Harpia é programado para reconhecer e lançar uma bomba contra
qualquer sinal de radar que não conste em seu banco de dados como
"amigo".
Até o momento, não foram relatados erros, mas suponhamos que um
adversário instale seu radar antiaéreo no teto de um hospital? Sharkey
destaca que a Harpia é uma arma que já cruzou um limiar preocupante e
não é possível fazê-la recuar. Há outros sistemas semelhantes, como o
X-47B da Marinha dos EUA, um avião de combate não tripulado,
semi-independente, que se encontra em fase de teste. Por enquanto, não
está armado, mas foi construído com dois compartimentos para bombas. Nós
já estamos no futuro.
Para os comandantes militares, o apelo das armas autônomas é quase
irresistível, e não se parece com nenhum outro avanço tecnológico
anterior. Os robôs são mais baratos que os sistemas pilotados, ou mesmo
que os drones - que exigem dezenas de técnicos fornecendo apoio ao
piloto remoto. Esses sistemas não colocam em risco a vida das tropas nem
as expõem a ferimentos ou a traumas mentais. Os soldados não ficam
cansados nem apavorados. Uma arma que não depende de comandos de uma
base pode continuar combatendo depois que o inimigo provoca
interferência nas comunicações, o que é cada vez mais provável na era
dos pulsos eletromagnéticos e dos ataques cibernéticos.
E nenhum estrategista militar quer ceder uma vantagem a um adversário
em potencial. Atualmente, mais de 70 países dispõem de drones, e alguns
trabalham intensamente nos aspectos tecnológicos para soltar esses
aviões de suas amarras virtuais.
"Mesmo que haja uma proibição, como poderá ser posta em prática?",
pergunta Ronald Arkin, cientista da computação e diretor do Laboratório
de Robôs da Georgia Tech. "Isso não passa de software." Os exércitos - e
os mercadores de guerra - não são os únicos que investem nessa
tecnologia. A robótica é uma fronteira científica hiperativa que vai
desde os laboratórios mais sofisticados de inteligência artificial até
os programas de ciências no ensino médio.
No mundo todo, as competições organizadas de robótica atraem 250 mil
jovens estudantes. (Minha filha de 10 anos é uma competidora.) E a
ciência da construção de robôs matadores não está tão facilmente
separada da ciência que produz carros que não precisam de motorista ou
computadores que se distinguem no programa de TV de perguntas e
respostas Jeopardy.
HAL 9000 - Inteligência Artificial de 2001
Arkin afirma que a automação também pode tornar a guerra mais humana.
Os robôs talvez não sintam compaixão, mas também não têm as emoções que
levam a erros terríveis, atrocidades e genocídios: desejo de vingança,
pânico, animosidade tribal.
"Meus amigos que serviram no Vietnã disseram que, quando se
encontravam em uma zona de fogo livre, atiravam em tudo o que se movia",
ele afirmou. "Acho que podemos projetar sistemas autônomos,
inteligentes, letais, capazes de fazer melhor do que isso." Arkin afirma
que as armas autônomas precisam de limites, mas não mediante o corte
abrupto da pesquisa. Ele defende uma moratória do uso desses recursos e
uma discussão ampla sobre as maneiras de ter seres humanos como
responsáveis.
Drone ED-209 do Filme ROBOCOP
Singer, da Brookings Institution, também se mostra cauteloso a
respeito da proibição de armas: "Apoio a finalidade, chamar a atenção
para o caminho perigoso que estamos percorrendo. Mas nós temos uma
história que não me deixa absolutamente otimista".
Assim como Singer, não tenho grandes esperanças quanto à viabilidade
da proibição de robôs que provocam a morte de pessoas, mas gostaria que
me provassem que estou errado. Se a guerra é feita para parecer
impessoal e segura, quase tão moralmente significativa quanto um
videogame, temo que as armas autônomas acabem empobrecendo nossa
humanidade. Tão perturbadora quanto a ideia de os robôs se tornarem mais
parecidos com os seres humanos é a perspectiva de que, ao longo do
processo, nos tornemos mais parecidos com os robôs.
Fonte: O Estado de S.Paulo - Por BILL KELLER - THE NEW YORK TIMES - TRADUÇÃO DE ANNA
CAPOVILLA - Titulo original: A ameaça do drone inteligente
0 Comentários