EUA preparam a hiperguerra: armas
autônomas e decisões de ataque (inclusive nuclear) tomadas por máquinas, em vez
de humanos. Quais as consequências. Como China e Rússia responderão.
Michal T. Klare, em Tom Dispatch | Traduzido
por Marianna Braghini e Felipe Calabrez
Nada é mais certo de que o
lançamento de armas atómicas poderia provocar um holocausto nuclear. O
presidente norte-americano John F. Kennedy deparou-se com tal momento durante a
Crise dos Mísseis de Cuba em 1962. Depois de pressentir o resultado
catastrófico de um confronto nuclear entre EUA e União Soviética, ele chegou à
conclusão que as potências atómicas deveriam impor barreiras ao uso precipitado
uso de tal armamento. Entre as medidas, ele e outros líderes globais adotaram
diretrizes, requerendo que funcionários de alto nível, não apenas militares,
tivessem um papel em qualquer decisão de lançamento de armas atômicas.
O risco existia antes e, claro,
perdura. E como! Como a inteligência artificial, (IA) exerce um papel cada vez
maior em assuntos militares — aliás, em toda nossa vida — o papel dos humanos,
mesmo em uma decisão do uso nuclear, tende a ser progressivamente minimizado.
Aliás, em algum futuro mundo saturado de IA, este papel poderia desaparecer
completamente, deixando que as máquinas determinem o futuro da humanidade.
Isso não é uma conjectura
qualquer, baseada em filmes de ficção científica ou narrativas distópicas. É
bem real, aqui e agora ou ao menos aqui e em breve. Quando o
Departamento de Defesa dos EUA — o Pentágono — e o comando militar de outras
grandes potências olham para o futuro, o que eles vêem é um campo de batalha
altamente disputado — alguns chamaram de um ambiente de hiperguerra [hyperwar] —
com vastos enxames de armas robóticas guiadas por IA, que se enfrentarão em uma
velocidade superior ao que os comandantes militares conseguem acompanhar no
curso de uma batalha. Em tal momento, pensa-se, os comandantes podem cada vez
mais ser forçados a depender de máquinas, nunca antes tão “inteligentes”, para
tomar decisões sobre qual armamento deve ser utilizado, quando e onde. A
princípio, isso pode não se estender para armas nucleares, mas à medida em que
a velocidade da batalha aumenta e as fronteiras entre estas e o armamento
convencional se reduzem, pode ser impossível prevenir a automação até mesmo na
tomada de decisão de lançamento de armas nucleares.
A “minimização da tomada de
decisão por humanos” terá profundas implicações para o futuro dos combates. Tal
resultado só pode crescer, à medida em que a força militar dos EUA se
realinhar, transformar de uma organização voltada para guerras assimétricas e
contra-terrorismo para outras, voltada ao combate direto contra China e Rússia.
Essa mudança foi demandada pelo Departamento de Defesa em sua Estratégia de
Segurança Nacional (National Security Strategy,) em dezembro de 2017. Em
vez de se focar maioritariamente em armamento e táticas voltadas ao combate de
insurgentes mal armados em conflitos perpétuos de pequena escala, o poder
militar americano está sendo redesenhado para combater as bem equipadas forças
russas e chinesas em diversas dimensões (céu, mar, terra, espaço, ciberespaço)
e envolvendo sistemas de múltiplos ataques (tanques, aviões, mísseis, foguetes)
e operando com mínima supervisão humana.
“O principal efeito/resultado de
todas estas capacidades, quando articuladas, será uma inovação que a guerra
jamais viu antes: a minimização das tomadas de decisão por humanos na vasta
maioria de processos tradicionalmente requeridos para promover uma guerra,”
observaram o General dos Marines, John Allen, e o empreendedor de AI, Amir
Hussain. “Nesta era próxima era da hiperguerra, veremos humanos provendo
insumos amplos e de alto nível, enquanto as máquinas realizam o planeamento,
execução e adaptação à realidade das missões, e retiram o fardo de milhares de
decisões individuais sem nenhum insumo adicional.
“O principal efeito/resultado de
todas estas capacidades, quando articuladas, será uma inovação que a guerra
jamais viu antes: a minimização das tomadas de decisão por humanos na vasta
maioria de processos tradicionalmente requeridos para promover uma guerra,”
observou o General dos Marines, John Allen, e o empreendedor de IA, Amir
Hussain. “Nesta era próxima da hiperguerra [hyperwar], veremos humanos provendo
insumos amplos e de alto nível, enquanto as máquinas realizam o planeamento,
execução e adaptação à realidade das missões, e retiram o fardo de milhares de
decisões individuais sem nenhum benefício adicional.
A “minimização da tomada de
decisão por humanos” terá profundas implicações para o futuro do combate.
Geralmente, líderes nacionais buscam controlar o ritmo e a direção da batalha
para assegurar o melhor desfecho possível, mesmo que isso signifique cessar o
conflito para evitar maiores perdas ou prevenir um desastre humanitário.
Máquinas, ou até mesmo máquinas inteligentes, são provavelmente incapazes de
avaliar o contexto social e político do combate. Ativá-las pode muito bem
desembocar em situações que se agravam descontroladamente.
Podem passar anos, talvez
décadas, antes que as máquinas substituam o papel dos humanos em decisões
militares sérias, mas este tempo está no horizonte. Quando se trata de controle
do sistema de armamentos por IA, como afirmou o secretário de Defesa dos EUA,
Jim Mattis, em uma entrevista recente: “No futuro próximo, haverá um elemento
humano significativo. Talvez por dez anos, talvez por quinze. Mas não por cem.”
Por que Inteligência Artificial?
Mesmo cinco anos atrás, havia
poucos no establishment militar que davam atenção ao papel de IA ou
da robótica quando se tratava de grandes operações de combate. Sim, aeronaves
pilotadas remotamente (RPA), ou drones, foram amplamente usadas na África e
Grande Oriente Médio para caçar combatentes inimigos. Mas são operações
largamente auxiliares (e as vezes da CIA), que visam aliviar pressão nos
comandos dos EUA e forças aliadas, lançadas contra bandos dispersos de
extremistas violentos. Além disso, os RPA’s de hoje são ainda controladas por
operadores humanos, mesmo de suas remotas localizações e fazem pouco uso de
sistemas de ataque e de identificação de humanos providos de IA. No futuro, no
entanto, espera-se que estes sistemas povoem grande parte de qualquer espaço de
batalha, substituindo humanos em muitos ou mesmo na maioria das funções de
combate.
Para acelerar esta transformação,
o departamento de Defesa já está gastando centenas de milhões de dólares em
pesquisas relacionadas a IA. “Não podemos esperar sucesso nas lutas de amanhã
com o pensamento, armamento ou equipamento de ontem,” disse o secretário Mattis
ao Congresso, em abril.
Para assegurar uma contínua supremacia militar, ele
adicionou, o Pentágono teria que focar mais em “investimento em inovação
tecnológica para aumentar letalidade, incluindo pesquisas de avançados sistemas
autónomos, inteligência artificial e hiperbólicos.”
Por que a repentina ênfase em IA
e robótica? Tudo começa, é claro, com o surpreendente progresso feito pela
comunidade tecnológica — muito dela assentada no Vale do Silício, Califórnia —
no aprimoramento de IA e sua aplicação em múltiplas funções, incluindo identificação
de imagens e reconhecimento de voz. Uma dessas aplicações, a Alexa Voice
Services, é o sistema de computação por trás do alto falante inteligente da
Amazon, que pode usar a Internet não só para executar, mas interpretar seus
comandos. (“Alexa, toque música clássica.” “Alexa, me diga a previsão do tempo
de hoje.” “Alexa, ligue as luzes.”) Outro tipo de aplicação são os veículos
autónomos, que talvez revolucionem o transporte.
Inteligência Artificial é uma
tecnologia omni-uso, empregável para tudo, explicam analistas do Congressional
Research Service, uma agência apartidária de informação, “ao passo em que tem o
potencial de ser virtualmente integrada a tudo”. É também uma tecnologia de uso
dual que pode ser aplicada apropriadamente tanto para propósitos militares como
para civis. Carros autónomos, por exemplo, dependem de algoritmos
especializados para processar informação de qualquer matriz de sensores
monitorizando condições de tráfego, e então decidir por qual rota seguir, quando
mudar de faixa e assim por diante. A mesma tecnologia, e versões reconfiguradas
dos mesmos algoritmos, um dia serão aplicadas para tanques autónomos soltos no
campo de batalha. Similarmente, um dia, aeronaves drone — sem operadores
humanos em localidades distantes — serão capazes de analisar um campo de
batalha para alvos determinados (tanques, sistemas de radar, combatentes),
determinando que aquilo que “vê” está de fato em sua lista de alvos, e
“decidindo” lançar um míssil sobre a pessoa ou objeto.
Não é necessário um cérebro
particularmente ágil para entender por que oficiais do Pentágono buscariam se
munir com tal tecnologia. Eles acham que ela lhes dará uma considerável
vantagem em futuras guerras. Qualquer conflito de grande escala entre EUA,
China ou Rússia (ou ambas) seria, para dizer o mínimo, extremamente violento,
com possivelmente centenas de navios de guerra e muitos milhares de aeronaves e
veículos armados. Em tal ambiente, a velocidade na tomada de decisão,
desdobramento e envolvimento será, sem dúvidas, um importante acessório. Num
futuro de armamentos super inteligentes, precisamente guiados, quem atirar
primeiro terá uma melhor chance de sucesso, ou até mesmo sobrevivência, do que
um adversário que só consegue atirar devagar. Humanos podem se mover rapidamente
em tais situações quando forçados a fazê-lo, mas as máquinas futuras irão agir
muito mais rápido, além de acompanhar mais variáveis do campo de batalha.
Como o General Paul Selva,
vice-diretor do Grupo Conjunto de Comando dos EUA, disse ao Congresso de seu
país, em 2017, “é muito convincente quando se obseva as capacidades que a
inteligência artificial pode trazer para a velocidade e precisão dos comandos e
controle, e as capacidades que a robótica avançada pode trazer para um campo de
batalha complexo, particularmente de interação entre máquinas no espaço e
ciberespaço, onde velocidade é a essência.”
Além de buscar a exploração de IA
no desenvolvimento de seu próprio armamento, os oficiais militares dos EUA
estão intensamente conscientes de que seus principais adversários também estão
avançando no armamento de IA e robótica, buscando novas maneiras de superar as
vantagens norte-americanas em armamento convencional. De acordo com o Congressional
Research Service, por exemplo, a China está investindo pesado no
desenvolvimento de inteligência artificial e sua aplicação para propósitos
militares. Apesar de não ter a base tecnologica nem da China nem dos EUA, a
Rússia esta similarmente correndo para desenvolver IA e robótica. Qualquer
liderança significativa da Rússia ou China em tais tecnologias emergentes, que
podem ameaçar a superioridade militares dos EUA, seria intolerável para o
Pentágono.
Não é surpreendente então, na
tendência das corridas armamentistas passadas (desde o desenvolvimento de
navios de guerra pré I Guerra Mundial ao armamento nuclar da Guerra Fria), que
uma “corrida armamentista pela IA” esteja a caminho, com os EUA, China, Rússia
e outras nações (incluindo Grã-Bretanha, Israel e Coreia do Sul) buscando
ganhar uma vantagem significativa no armamento da inteligência artificial e
robótica. Oficiais do Pentágono regularmente citam o avanço da China em IA
quando buscam financiamento do Congresso aos seus projetos, assim como oficiais
militares chineses ou russos sem dúvida citam os norte-americanos para
financiar seus próprios projetos nacionais. Na corrida armamentista clássica,
essa dinâmica já está acelerando o ritmo de desenvolvimento de sistemas
operados por IA e assegurando sua predominância na futura guerra.
Comando e Controle
No ritmo em que se desdobra essa
guerra armamentista, a inteligência artificial será aplicada a todo aspecto da
guerra, de logística e vigilância até identificação de alvos e gerência de
batalhas. Veículos robóticos acompanharão tropas no campo de batalha, carregando
suprimentos e atirando contra posições inimigas. Enxames de drones armados irão
atacar tanques inimigos, radares e centros de comando. Veículos submarinos não
tripulados (UUV) irão perseguir submarinos inimigos e navios na superfície. No
início do combate, todos estes instrumentos serão, sem dúvidas, controlados por
humanos. Ao passo em que se intensifica o combate, entretanto, a comunicação
entre as sedes e linhas de frente pode muito bem ser perdida, e tais sistemas
irão, de acordo com cenários militares que já estão sendo escritos, agir por si
mesmos, com o poder de tomar ações letais sem nova intervenção humana.
A maior parte do debate sobre a
aplicação de IA e seu futuro campo de batalha focou na moralidade de empoderar
máquinas totalmente autónomas — às vezes chamadas de robôs assassinos” — com a
capacidade de tomar decisões de vida ou morte por si mesmas, ou se o uso de
tais sistemas violaria a legislação de guerra e o direito humanitário
internacional. Tais convicções requerem que os promotores da guerra sejam
capazes de distinguir entre combatentes e civis no campo de batalha e poupar
danos a estes últimos na maior extensão possível. Defensores da nova tecnologia
alegam que máquinas irão se tornar inteligentes o suficiente para realizar tais
distinções por elas mesmas, enquanto oponentes insistem que elas jamais irão se
provar capazes de realizar tais distinções no calor da batalha e seriam
incapazes de demonstrar compaixão quando apropriado. Um conjunto de
organizações de direitos humanos e organizações humanitárias lançou a Campanha
para Parar Robôs Assassinos, com o objetivos de obter um banimento
internacional do desenvolvimento de sistemas bélicos integralmente autónomos.
Ao mesmo tempo, um debate de
consequências provavelmente mais importantes está emergindo no meio militar
sobre a aplicação de IA no sistemas de comando e controle (CC) – isto é, para
que os oficiais superiores comuniquem as principais ordens às suas tropas.
Generais e almirantes sempre buscam maximizar a confiabilidade dos sistemas CC
para garantir que suas intenções estratégicas sejam cumpridas da forma mais
completa possível. Na era atual, tais sistemas são profundamente dependentes de
sistemas seguros de comunicação por rádio e satélite que se estendem da sede
até as linhas de frente. Entretanto, os estrategistas temem que, em um futuro
ambiente de hiper-guerra, tais sistemas possam ser bloqueados ou degradados,
assim como a velocidade dos combates comece a exceder a capacidade dos
comandantes de receber relatórios de campo de batalha, processar os dados e
despachar pedidos em tempo hábil. Considere isso como uma definição funcional
do infame nevoeiro da guerra multiplicado pela inteligência artificial – com a
derrota como um resultado provável. A resposta para tal dilema para muitos
oficiais militares: deixar que as máquinas assumam esses sistemas também. Como
um relatório do Serviço de Pesquisa do Congresso dos EUA sustenta, no futuro,
“os algoritmos de inteligência artificial podem fornecer aos comandantes cursos
de ação viáveis baseados na análise em
tempo real do espaço de batalha, o que permitiria uma adaptação mais rápida aos
eventos que se desdobram”.
E algum dia, é claro, é possível
imaginar que as mentes por trás de tal decisão deixarão de ser humanas. Os
dados recebidos dos sistemas de informação do campo de batalha seriam
canalizados para processadores de IA focados na avaliação de ameaças iminentes
e, dadas as limitações de tempo envolvidas, executando o que eles consideram as
melhores opções sem instruções humanas.
Oficiais do Pentágono negam que
busquem qualquer um desses propósitos em sua pesquisa relacionada à IA. Eles
reconhecem, no entanto, que podem pelo menos imaginar um futuro em que outros
países delegam a tomada de decisões às máquinas e os EUA não veem outra opção
senão seguir o exemplo, para não perder o terreno estratégico. “Não delegaremos
autoridade letal a uma máquina para tomar uma decisão”, disse Robert Scharre,
subsecretário de Defesa Robert Work, do Centro para uma Nova Segurança
Americana em uma entrevista de 2016. Mas ele acrescentou a advertência
usual: no futuro, “podemos nos colocar contra um concorrente que está mais
disposto a delegar autoridade às máquinas do que nós e quando a competição se
desenrolar, teremos que tomar decisões sobre como competir. “
“A decisão do juízo final”
A suposição na maioria desses
cenários é a de que os EUA e seus aliados estarão engajados em uma guerra
convencional contra a China e/ou Rússia. Tenhamos em mente então que que a
própria natureza de uma futura hiperguerra promovida por IA só
aumentaria o risco de que conflitos convencionais pudessem cruzar um limiar que
nunca foi atravessado antes: uma guerra nuclear real entre dois Estados
nucleares. E, caso isso aconteça, esses sistemas CC com tecnologia IA poderão,
mais cedo ou mais tarde, encontrar-se em posição de lançar armas atômicas.
Tal perigo surge da convergência
de múltiplos avanços na tecnologia: não apenas IA e robótica, mas o
desenvolvimento de capacidades de ataque convencionais como mísseis
hiperbólicos capazes de voar a cinco ou mais vezes a velocidade do som, canhões
eletromagnéticos e lasers de alta energia. Tais armas, embora não nucleares,
quando combinadas com sistemas de identificação de alvos e vigilância de IA,
poderiam até atacar as armas de retaliação de um inimigo, ameaçando assim
eliminar sua capacidade de lançar uma resposta a qualquer ataque nuclear. Dado
tal cenário de “use-os ou perca-os”, qualquer potência pode estar inclinada a
não esperar, mas a lançar suas armas nucleares ao primeiro sinal de possível
ataque, ou mesmo, temendo perda de controle em um engajamento incerto e
acelerado, delegar autoridade de lançamento para suas máquinas. E uma vez que
isso acontecesse, poderia ser quase impossível impedir uma nova escalada.
Surge então a questão: as
máquinas tomariam melhores decisões que os humanos em tal situação? Elas
certamente são capazes de processar grandes quantidades de informação em breves
períodos de tempo e pesar os prós e contras de ações alternativas de uma
maneira completamente sem emoção. Mas as máquinas também cometem erros
militares e, acima de tudo, carecem da capacidade de refletir sobre uma
situação e concluir: parem com essa loucura. Nenhuma vantagem de batalha vale a
aniquilação humana global.
Como Paul Scharre pontuou em Army
of None, um novo livro sobre IA e guerra, “Humanos não são perfeitos, mas eles
podem criar empatia pelos seus oponentes e enxergar o quadro maior. Ao
contrário deles, armas autónomas não teriam capacidade de compreender as
consequências de suas ações, nem a capacidade de se afastar da beira da guerra.
Então, talvez devêssemos pensar
duas vezes antes de dar à futura versão militarizada do Alexa o poder de lançar
um Armagedon provocado por uma máquina.
Gostou do texto? Contribua para
manter e ampliar nosso jornalismo de profundidade: OUTROS QUINHENTOS