MAGAZINE

Os desafios da Inteligência Artificial nos conflitos internacionais

Inês Quadros, Professora Auxiliar da Faculdade de Direito da UCP, Vice-Presidente da Associação de Juristas Católicos

A utilização destes sistemas traz consigo um dilema – será eticamente legítimo que a decisão de matar seja deixada à máquina? A questão passa, naturalmente, pela identificação das limitações dos algoritmos – designadamente o seu tão propalado enviesamento. Mas vai muito para além disso e toca em questões fundamentais – a morte pelo algoritmo, mais asséptica, não será também mais desumana? Será possível exercer um juízo moral sobre o algoritmo? A seleção e o ataque de alvos sem intervenção humana serão compatíveis com a dignidade humana?

Na passada semana, no âmbito de um ciclo de conferências intitulado “Inteligência Artificial – oportunidades e desafios” organizado conjuntamente pela Associação dos Juristas Católicos e pela Capela do Rato, houve ocasião de refletir sobre o uso de IA em cenário de guerra. O orador, Afonso Seixas-Nunes, é um sacerdote jesuíta, jurista, teólogo e filósofo, que tem dedicado a sua vida a investigar o uso de sistemas de Inteligência Artificial em conflitos internacionais.

Depois de vários anos em Oxford a estudar o desenvolvimento de dispositivos autónomos usados na segurança nacional e combate ao terrorismo, é agora investigador na Universidade de Saint Louis, nos Estados Unidos, debruçando-se mais recentemente sobre a utilização do espaço sideral para efeitos bélicos. Na sua exposição (que vale a pena ser revista no Youtube, no canal da Associação dos Juristas Católicos), descreveu o funcionamento dos sistemas bélicos atuais e analisou as suas implicações éticas.

Seria demasiado dizer que o tema é atual, porque ao longo da História quase nada foi sempre tão atual como a guerra. Nos dias de hoje existem mais de cem conflitos ativos em várias regiões do planeta, mas as questões que convocam são as mesmas de sempre: se e quando é que a guerra é legítima e como reduzir o seu impacto nas populações civis. Embora a maior disponibilidade de informação possa constituir um elemento a levar em conta para responder à primeira questão, é sobretudo quanto à segunda que a Inteligência Artificial se apresenta como particularmente relevante.

Nas guerras que encontram espaço mediático – neste momento, a guerra na Ucrânia e o conflito em Israel e em Gaza – são atualmente utilizadas tecnologias muito sofisticadas de defesa e ataque, geralmente desconhecidas mesmo para o espectador mais atento.

Estamos a falar de um conjunto de métodos heterogéneos e em constante evolução – desde sistemas de recolha de um grande volume de dados, e o seu subsequente tratamento, suscetíveis de aumentar a informação disponível para os decisores políticos e militares, passando por métodos de comunicação e geolocalização com precisão milimétrica, até aos mais avançados sistemas em que a própria decisão é tomada de forma autónoma, sem qualquer intervenção humana.

Estes sistemas permitem monitorizar as movimentações do inimigo, conhecer o terreno e identificar os alvos, avaliar probabilidades de sucesso, decidir e agir em contexto de guerra.
É certo que estes sistemas são muito atraentes do ponto de vista da eficácia, sobretudo quando medida em relação ao número de vítimas. Permitem ataques mais precisos e cirúrgicos, tornando a guerra mais “limpa”.

A probabilidade de erro, continuando a existir, tende, apesar de tudo, a ser significativamente mais reduzida que a dos métodos tradicionais de cálculo, avaliação estratégica e comunicação, pois a informação disponível e as conexões existentes entre os dados são muito mais sofisticadas do que as conseguidas pela inteligência humana. É justamente esta fiabilidade dos sistemas que lhes confere um grande poder, pois tendemos a depositar maior confiança neles do que nos cálculos humanos.

Contudo, a utilização destes sistemas traz consigo um dilema – será eticamente legítimo que a decisão de matar seja deixada à máquina? A questão passa, naturalmente, pela identificação das limitações dos algoritmos – designadamente o seu tão propalado enviesamento. Mas vai muito para além disso e toca em questões fundamentais – a morte pelo algoritmo, mais asséptica, não será também mais desumana? Será possível exercer um juízo moral sobre o algoritmo? A seleção e o ataque de alvos sem intervenção humana serão compatíveis com a dignidade humana?

De facto, como alertava o Papa Francisco na mensagem para o Dia Mundial da Paz deste ano, “a exclusiva capacidade humana de julgamento moral e de decisão ética é mais do que um conjunto complexo de algoritmos, e tal capacidade não pode ser reduzida à programação duma máquina que, por mais «inteligente» que seja, permanece sempre uma máquina”.

Partilhar

Talvez goste de..

Apoie o Jornalismo Independente

Pelo rigor e verdade Jornalistica