quarta-feira, 9 de setembro de 2020

Além dos drones assassinos, Pentágono quer também robôs Generais... assassinos


Há anos que temos drones assassinos. Agora o Pentágono quer também robôs Generais


Estrategas militares EUA estão a argumentar seriamente que a avaliação do campo de batalha - incluindo para a guerra nuclear - deveria ser cada vez mais delegada em máquinas. A sofisticação das armas de última geração - nomeadamente os mísseis hipersónicos - e o colossal e permanente afluxo de informação a tratar em cada momento provocam uma compressão do tempo (de avaliação da situação e de resposta) que ultrapassa capacidades humanas. Um cenário de pesadelo que está em construção.

Com a Covid-19 incapacitando um número surpreendente de membros do serviço dos EUA e com as armas modernas a mostrar-se cada vez mais letais, os militares norte-americanos estão cada vez mais frequentemente a apoiar-se em robôs inteligentes para conduzir operações de combate arriscadas.

Tais dispositivos, conhecidos nas forças armadas como “sistemas autónomos de armamento”, incluem sentinelas robóticas, drones de vigilância do campo de batalha e submarinos autónomos. Até agora, por outras palavras, os dispositivos robóticos estão meramente a substituir armamento padrão em campos de batalha convencionais.

Agora, no entanto, pela via de um enorme acréscimo de fé, o Pentágono está a tentar levar este processo a um nível inteiramente novo – substituindo por sistemas robóticos não apenas soldados comuns e as suas armas mas potencialmente almirantes e generais.

É certo que esses sistemas estão ainda em fase de desenvolvimento, mas o Pentágono está agora a acelerar a sua implantação futura como uma questão de urgência nacional. Todos os componentes de um estado-maior general moderno - incluindo planeamento de batalha, recolha de informações, logística, comunicações e tomada de decisão - deve, de acordo com os planos mais recentes do Pentágono, ser entregue a arranjos complexos de sensores, computadores e software. Todos estes serão então integrados num “sistema de sistemas”, agora denominado Comando e Controle Conjunto de Todos os Domínios (Joint All-Domain Command-and-Control ou JADC2, uma vez que as siglas permanecem a essência da vida militar).

Eventualmente, essa amálgama de sistemas pode de facto assumir a maioria das funções actualmente desempenhadas pelos generais norte-americanos e seus oficiais superiores.

A noção de usar máquinas para tomar decisões a nível de comando não é, obviamente, inteiramente nova. Na verdade, até demorou muito a chegar. Durante a Guerra Fria, após a introdução dos mísseis balísticos intercontinentais (ICBMs) com tempos de voo extremamente curtos, tanto os estrategas militares como os escritores de ficção científica começaram a imaginar sistemas mecânicos que controlariam esse armamento nuclear em caso de incapacidade humana.

No filme satírico de Stanley Kubrick de 1964, Dr. Strangelove, por exemplo, o ficcional líder russo Dimitri Kissov revela que a União Soviética instalou uma “máquina do juízo final” capaz de obliterar toda a vida humana que detonaria automaticamente caso o país fosse atacado por forças nucleares norte-americanas. Os esforços de tresloucados oficiais anti-soviéticos da Força Aérea dos Estados Unidos para desencadear uma guerra com Moscovo leva depois ao accionamento dessa máquina e vai, assim, provocar a aniquilação humana.

Na realidade, temendo que pudessem experimentar um ataque surpresa desse tipo, os soviéticos mais tarde instalaram efectivamente um sistema retaliatório semiautomático que apelidaram “Perímetro”, projectado para lançar ICBMs soviéticos no caso de sensores detectarem explosões nucleares e todas as comunicações a partir de Moscovo terem sido silenciadas. Alguns analistas acreditam que uma versão melhorada do Perimeter está ainda em operação, deixando-nos em numa versão muito real de um mundo strangeloviano.

Em ainda outra versão de ficção científica de tais sistemas de comando automatizados, o filme WarGames de 1983, protagonizado por Matthew Broderick como um hacker adolescente, retratou um supercomputador chamado War Operations Plan Response, ou WOPR (pronuncia-se “whopper”) instalado na sede do Comando Aeroespacial Norte-Americano (NORAD) no Colorado. Quando o personagem de Broderick entra nele e começa a jogar o que acredita ser um jogo chamado “Terceira Guerra Mundial”, o computador conclui que um ataque soviético real está em andamento e lança uma resposta nuclear de retaliação. Embora fictício, o filme retrata com precisão muitos aspectos do sistema de comando e controlo de comunicações nuclear dos EUA (NC3), que era e ainda permanece altamente automatizado.

Estes dispositivos, tanto reais como imaginários, eram relativamente primitivos face aos padrões de hoje, sendo apenas capazes de determinar que um ataque nuclear estava em curso e de ordenar uma resposta catastrófica. Agora, como resultado de vastas melhorias em inteligência artificial (IA) e aprendizagem de máquina, máquinas podem colectar e avaliar grandes quantidades de dados dos sensor, detectar rapidamente as principais tendências e padrões e potencialmente emitir ordens a unidades de combate sobre onde e quando atacar.

Compressão do Tempo e falibilidade humana

A substituição de humanos por máquinas inteligentes a níveis mais elevados de comando está a tornar-se essencial, argumentam os estrategas dos EUA, porque um crescimento exponencial nas informações de sensor combinado com a crescente velocidade da guerra está a tornar quase impossível a humanos acompanhar desenvolvimentos cruciais no campo de batalha.

Se os cenários futuros provarem ser exactos, batalhas que antes se desenrolavam por dias ou semanas poderiam ocorrer no espaço de horas, ou mesmo minutos, enquanto as informações do campo de batalha afluirão a múltiplos pontos de recolha de dados, esmagando a capacidade de tratamento dos oficiais de estado-maior. Apenas computadores avançados, afirma-se, poderiam processar tanta informação e tomar decisões de combate informadas no necessário quadro temporal.

Tal compressão do tempo e expansão dos dados oriundos dos sensores pode aplicar-se a qualquer forma de combate, mas especialmente à mais terrível de todas, a guerra nuclear. Quando ICBMs eram o principal meio desse combate, os decisores tinham até 30 minutos entre o momento em que um míssil era lançado e o momento da detonação para determinar se um ataque potencial era real ou apenas uma falsa leitura de satélite (como por vezes ocorreu durante a Guerra Fria).

Ora isso pode não parecer muito tempo, mas com a recente introdução dos mísseis hipersónicos esses tempos de avaliação podem reduzir-se a tão pouco como cinco minutos. Em tais circunstâncias, é esperar muito que mesmo os decisores mais informados cheguem a uma avaliação informada sobre a natureza de um ataque potencial. Daí o apelo (de alguns) a sistemas automatizados de tomada de decisão.

“A compressão do tempo de ataque colocou a liderança mais altamente colocada dos EUA numa situação em que o sistema NC3 existente pode não actuar com rapidez suficiente”, argumentaram os analistas militares Adam Lowther e Curtis McGiffin em War on the Rocks, um site voltado para a segurança. “Assim, pode ser necessário desenvolver um sistema baseado em inteligência artificial, com decisões de resposta predeterminadas, que detecte, decide e direcione forças estratégicas com tal velocidade que o desafio da compressão de tempo de ataque não coloque os Estados Unidos numa posição impossível.”

Essa noção, de que um dispositivo movido por inteligência artificial - em essência, uma versão mais inteligente da máquina do Juízo Final ou o WOPR - deveria assumir o poder de avaliar o comportamento do inimigo e então, com base em “opções de resposta predeterminadas”, decidir o destino da humanidade, produziu naturalmente algum mal-estar na comunidade dos analistas militares (tal como deveria acontecer também para o resto de nós). No entanto, os estrategas norte-americanos continuam a argumentar que a avaliação do campo de batalha e a tomada de decisões - tanto para a guerra convencional como para a nuclear - deveria ser cada vez mais delegada em máquinas.

“Os
sistemas de informações alimentados por IA podem fornecer a capacidade de integrar e classificar grandes volumes de dados de diferentes fontes e localizações geográficas para identificar padrões e destacar informação útil”, observou o Serviço de Investigação do Congresso num resumo do pensamento do Pentágono de Novembro de 2019. “À medida que amadurece a complexidade dos sistemas de IA”, acrescentava, “os algoritmos de IA podem também ser capazes de fornecer aos comandantes um menu de cursos de acção viáveis com base na análise em tempo real do campo de batalha, permitindo por sua vez uma adaptação mais rápida a eventos complexos.”

A formulação chave ali é “um menu de cursos de acção viáveis com base na análise em tempo real do campo de batalha.”

Isto pode deixar a impressão de que generais e almirantes humanos (para não falar do seu comandante-chefe) estarão ainda a tomar as decisões de vida ou morte finais tanto para as suas próprias forças como para o planeta. Dada essa prevista compressão no tempo de ataque em futuros combates de alta intensidade com a China e/ou Rússia, no entanto, os humanos podem já não ter tempo ou capacidade para analisar por si próprios o espaço de batalha e, portanto, passarão a contar com algoritmos de IA para tais avaliações. Como resultado, os comandantes humanos podem simplesmente ver-se a endossar decisões elaboradas por máquinas - e assim, no final, tornarem-se supérfluos.

Criando Robôs Generais

Apesar de quaisquer dúvidas que possam ter sobre a sua futura segurança de emprego, os generais de topo dos EUA estão a agir rapidamente para desenvolver e implantar esse mecanismo de comando automatizado JADC2.

Supervisionado pela Força Aérea, está a provar ser uma amálgama controlada por computador de dispositivos para colectar informação sobre as forças inimigas em tempo real a partir de um vasto número de dispositivos sensores (satélites, radares terrestres, postos de escuta electrónicos e assim por diante), processando esses dados em informação accionável de combate e fornecendo instruções de ataque precisas a todas as unidades de combate e sistemas de armas envolvidos num conflito - sejam eles pertencentes ao Exército, Marinha, Força Aérea, Corpo de Fuzileiros Navais ou a recém-formada Força Espacial e Comando Cibernético.

Em que consistirá, exactamente, o JADC2 não é amplamente conhecido, em parte porque muitos dos seus sistemas de componentes estão ainda envoltos em sigilo e em parte porque muita da tecnologia essencial está ainda em fase de desenvolvimento. Com a responsabilidade delegada de supervisionar o projecto, a Força Aérea está a trabalhar com a Lockheed Martin e outros grandes empreiteiros de defesa para projectar e desenvolver elementos-chave do sistema.

Um desses blocos de construção é o seu Advanced Battle Management System (ABMS), um sistema de colecta e distribuição de dados destinado a fornecer aos pilotos de caça dados actualizados ao minuto sobre posições inimigas e ajudar a guiar os seus movimentos de combate. Outro componente chave é o Sistema de Comando Integrado de Defesa e Combate Aéreo e de Mísseis (IBCS) do Exército, projectado para conectar sistemas de radar a lançadores antiaéreos e de defesa antimísseis e fornecer-lhes instruções precisas de disparo. Com o tempo, a Força Aérea e os seus múltiplos empreiteiros procurarão integrar o ABMS e o IBCS numa rede gigante de sistemas conectando todos os sensores, atiradores e comandantes das forças armadas do país - uma “internet das coisas” militar, como alguns lhe chamaram.

Para testar esse conceito e fornecer um exemplo de como ele poderia operar no futuro, o Exército conduziu um exercício de artilharia de fogo real em Agosto na Alemanha, utilizando componentes (ou fac-símiles) do futuro sistema JADC2. Na primeira fase do teste, imagens de satélite de posições (presumidas) de tropas russas foram enviadas para um terminal terrestre do Exército, onde um programa de software de IA chamado Prometheus vasculhou os dados para seleccionar alvos inimigos. Em seguida, outro programa de IA chamado SHOT computou a combinação ideal de armamento disponível do Exército para os alvos pretendidos e enviou essa informação, juntamente com coordenadas de tiro precisas, para o Sistema Avançado de Dados Tácticos de Artilharia de Campo (AFATDS) do Exército para acção imediata, onde comandantes humanos poderiam escolher implementá-lo ou não. No exercício, estes comandantes humanos tiveram o espaço mental para pensar no assunto por um momento; numa guerra de tiros, eles poderiam simplesmente deixar tudo às máquinas, como os designers do sistema claramente pretendem que façam.

No futuro, o Exército está a planear testes ainda mais ambiciosos desta tecnologia em evolução através de uma iniciativa chamada Projecto Convergência. Pelo que foi dito publicamente sobre ela, a Convergence empreenderá exercícios cada vez mais complexos envolvendo satélites, caças da Força Aérea equipados com o sistema ABMS, helicópteros do Exército, drones, peças de artilharia e veículos tácticos. Eventualmente, tudo isso formará a “arquitectura” subjacente do JADC2, ligando todos os sistemas de sensores militares a todas as unidades de combate e sistemas de armas - deixando os generais com pouco a fazer a não ser ficar sentados e observar.

Porque poderiam errar os Generais Robôs

Dada a complexidade da guerra moderna e o desafio da compressão do tempo em combates futuros, o desejo dos estrategas norte-americanos de substituir comandantes humanos por robôs é certamente compreensível. Os generais e almirantes robóticos poderiam teoricamente ser capazes de processar quantidades espantosas de informações em breves períodos de tempo, ao mesmo tempo controlando as forças amigas e inimigas e criando formas óptimas de conter movimentos do inimigo num futuro campo de batalha.

Mas há muitos bons motivos para duvidar da fiabilidade dos decisores robôs e da sabedoria de os usar no lugar de oficiais humanos.

Para começar, muitas dessas tecnologias estão ainda na sua infância e quase todas estão sujeitas a disfuncionalidades que nem podem ser facilmente antecipadas nem compreendidas. E não esquecer que mesmo algoritmos avançados podem ser enganados ou “falsificados” por profissionais qualificados.

Além disso, ao contrário dos humanos, os sistemas de tomada de decisão habilitados pela IA não terão a capacidade de avaliar intenção ou contexto. Uma deslocação repentina de tropas inimigas, por exemplo, indica um ataque iminente, um bluff ou apenas uma rotação normal de forças? Os analistas humanos podem usar a sua compreensão do momento político actual e dos actores envolvidos para ajudar a orientar sua avaliação da situação. As máquinas não têm essa capacidade e podem assumir o pior, iniciando uma acção militar que poderia ter sido evitada.

Esse problema só será agravado pelo “treino” que esses algoritmos de tomada de decisão serão sujeitos à medida que são adaptados a situações militares. Tal como o software de reconhecimento facial provou ser prejudicado por um excesso de insistência em imagens de homens brancos no processo de treino - tornando-os menos aptos a reconhecer, digamos, mulheres afro-americanas -, os algoritmos de tomada de decisão militares serão provavelmente distorcidos por um excesso de insistência em cenários orientados para o combate selecionados por profissionais militares norte-americanos para fins de treino. “Pensar na pior das hipóteses” é uma inclinação natural desses oficiais - afinal, quem quer ser apanhado despreparado para um possível ataque surpresa do inimigo? - e tais vieses irão sem dúvida tornar-se parte dos “menus de cursos de acção viáveis” fornecidos por robôs decisores.

Uma vez integrados em algoritmos de tomada de decisão, tais preconceitos podem, por sua vez, mostrar-se extremamente perigosos em quaisquer encontros futuros entre tropas EUA e russas na Europa ou forças EUA e chinesas na Ásia. Afinal de contas, um conflito deste tipo pode surgir a qualquer momento, graças a algum mal-entendido ou incidente local que rapidamente ganha força - um choque repentino entre navios de guerra dos EUA e da China ao largo de Taiwan, por exemplo, ou entre patrulhas norte-americanas e russas num dos estados bálticos.

Nenhum dos lados pode ter pretendido iniciar um conflito em grande escala e os líderes de ambos os lados podem normalmente mover-se para negociar um cessar-fogo. Mas lembrem-se, estes já não serão simplesmente conflitos humanos. Na esteira de tal incidente, o JADC2 poderia detectar algum movimento inimigo que determina representar um risco iminente para forças aliadas e portanto imediatamente lança um ataque total por aviões, mísseis e artilharia norte-americanos, fazendo escalar o conflito e eliminando qualquer possibilidade de um acordo negociado com brevidade.

Estas perspectivas tornam-se verdadeiramente assustadoras quando o que está em jogo é o início de uma guerra nuclear. É difícil imaginar qualquer conflito entre as grandes potências começando como uma guerra nuclear, mas é muito mais fácil imaginar um cenário em que as grandes potências - depois de se envolverem num conflito convencional - atinjam um ponto em que um ou outro lado considere o uso de armas atómicas para evitar a derrota.

A doutrina militar americana, de facto, sempre sustentou a possibilidade de usar as chamadas armas nucleares tácticas em resposta a um ataque soviético maciço (agora russo) na Europa. A doutrina militar russa, é amplamente assumido, incorpora opções semelhantes. Sob tais circunstâncias, um futuro JADC2 poderia interpretar erroneamente movimentos do inimigo como sinalizando preparação para um lançamento nuclear e ordenar um ataque preventivo das forças nucleares dos EUA, iniciando assim a III Guerra Mundial.

A guerra é uma actividade suja e brutal e, dadas quase duas décadas de conflitos fracassados que marcharam sob o rótulo de “guerra ao terror”, causando milhares de baixas norte-americanas (físicas e mentais), é fácil entender porque estão tão ansiosos os entusiastas dos robôs em ver outro tipo de mentalidade assumir o controlo do fazer da guerra norte-americano.

Para começar afirmam que, especialmente num mundo pandémico, não é senão humano substituir soldados humanos no campo de batalha por robôs e assim diminuir as baixas humanas (pelo menos entre os combatentes). Esta afirmação, é claro, não aborda o argumento de que soldados robôs e aviões drones não têm a capacidade de distinguir entre combatentes e não combatentes no campo de batalha e portanto não pode confiar-se em que cumpram com as leis da guerra ou o direito internacional humanitário - que, pelo menos teoricamente, protegem os civis de danos desnecessários - e por isso deveriam ser banidos.

Por mais complicado que tudo isso possa ser nos campos de batalha do futuro, substituir generais e almirantes por robôs é ainda outra questão. Não são apenas argumentos legais e morais que se levantam vivamente, já que a sobrevivência de muito amplas populações civis poderia ser posta em risco por decisões de combate derivadas do computador, é também que não há garantia de que os soldados norte-americanos sofreriam menos baixas nas batalhas que se seguiram.

Talvez seja tempo, então, de o Congresso fazer algumas perguntas difíceis sobre a conveniência de automatizar a tomada de decisões de combate, antes que este país despeje mais milhares de milhões de dólares dos contribuintes num empreendimento que poderia, de facto, levar ao fim do mundo tal como o conhecemos. Talvez seja tempo também de os líderes da China, Rússia e deste país limitarem ou proibirem a instalação de mísseis hipersônicos e outras armas que comprimirão as decisões de vida ou morte da humanidade em apenas alguns minutos, justificando assim a automação de tais fatídicas avaliações.


Publicado em O Diário.info

Sem comentários:

Mais lidas da semana