António da Costa Alexandre, Jornal SOL
A trégua de duas semanas acordada entre os Estados Unidos, Israel e o Irão pode ter travado, temporariamente, a escalada militar direta, mas não travou a guerra digital nem o recurso crescente à inteligência artificial no conflito.
A própria evolução dos acontecimentos mostra que este cessar-fogo está longe de
representar um abrandamento consistente das tensões em conflito. O alcance do
acordo foi desde o início contestado, em especial quanto ao Líbano, e os
bombardeamentos israelitas sobre Beirute, o Vale do Bekaa e o Sul deste país,
imediatamente a seguir à sua proclamação tendem a confirmar que esta trégua
pode ser parcial e precária.
Este cessar-fogo deixa em aberto um conjunto de questões importantes. A
Associated Press sublinhou que, apesar das tréguas, persistem profundas
incertezas quanto ao futuro político e estratégico do Irão, ao destino do urânio
altamente enriquecido e ao controlo do Estreito de Ormuz. Segundo a esta agência
noticiosa, Donald Trump sugeriu que os ataques dos Estados Unidos e de Israel
abriram caminho para uma mudança de regime em Teerão. No entanto, a ascensão
de Mojtaba Khamenei, filho do aiatolá Ali Khamenei, líder supremo do Irão, morto no
início da guerra, não dissipou a instabilidade.
Esta trégua pode ter travado, temporariamente, a escalada militar direta. Contudo,
não travou a guerra que se move nas redes, nos sistemas de vigilância, nos drones,
nas imagens de satélite, nos centros de dados, nas plataformas digitais e nas
operações cibernéticas. Segundo as notícias mais relevantes, em especial da
Associated Press e da Reuters, a inteligência artificial tem sido utilizada nesta
guerra em várias frentes: na análise de informação militar, no apoio à identificação
de alvos, em operações de influência e propaganda, na vigilância com recurso a
imagens de satélite e fontes abertas, no apoio a ciberoperações e na integração
crescente em drones e outros sistemas automatizados de combate.
Também a frente dos ciberataques permanece aberta. A Associated Press noticiou
que hackers alinhados com Teerão consideram que o cessar-fogo entre o Irão, os
2
Estados Unidos e Israel, por ser incerto, não põe necessariamente fim aos
ciberataques retaliatórios. Especialistas norte-americanos em cibersegurança
advertiram, por isso, que potenciais alvos nos Estados Unidos e em Israel devem
levar a ameaça a sério.
Na verdade, esta ligação entre tecnologia avançada e defesa está longe de ser
nova. A própria internet nasceu de um projeto com origem militar, pensado em plena
guerra fria para garantir comunicações mais resilientes em caso de ataque.
Também a inteligência artificial mantém há décadas uma relação estreita com os
setores da defesa, da vigilância e da análise de informação. O que mudou foi a
escala. Hoje, essa ligação tornou-se mais estreita, mais sofisticada e mais visível, à
medida que sistemas de inteligência artificial passaram a influenciar de forma
crescente a vigilância, a avaliação de ameaças, a coordenação de meios e o apoio
à decisão militar.
Como lembra Kate Crawford em Atlas of AI: Power, Politics, and the Planetary Costs
of Artificial Intelligence, editado em português pela Relógio D’Água sob o título Atlas
da IA, a inteligência artificial não existe num vazio técnico: assenta em
infraestruturas materiais, cadeias de extração, sistemas de vigilância e relações de
poder que a ligam, desde a origem, a interesses económicos, de segurança e
militares. Também por isso, a sua aproximação ao setor da defesa não deve ser lida
como um desvio recente, mas como parte de uma trajetória mais longa destas
tecnologias.
No meu último artigo no SOL: A guerra algorítmica: quando os algoritmos começam
a decidir quem vive e quem morre , referi que a inteligência artificial deixou de ser
um tema periférico no debate sobre a guerra. Hoje, estas tecnologias integram de
forma crescente infraestruturas de vigilância, análise, coordenação e apoio à
decisão. O conflito entre os Estados Unidos, Israel e o Irão confirma essa tendência.
No imaginário coletivo continua a dominar a ideia da guerra feita de soldados,
aviões, mísseis e destruição visível. No entanto, os conflitos contemporâneos têm
outros contornos. Fazem-se também nas redes, nos sistemas de vigilância, nos
drones, nas imagens de satélite, nos centros de dados, nas plataformas digitais e
nas operações cibernéticas. Incluem tratamento automatizado de informação,
3
identificação de padrões, reconhecimento de imagem, análise de comunicações,
coordenação remota de meios e aceleração de decisões operacionais.
É precisamente neste plano menos visível que se manifesta a relevância da IA,
desde logo na recolha e tratamento de dados, na vigilância contínua, na deteção de
movimentos considerados suspeitos, na priorização de sinais relevantes e no apoio
à seleção de respostas num ambiente marcado pela velocidade, pela incerteza e
pela pressão operacional.
Como sublinham Kissinger, Schmidt e Huttenlocher em The Age of AI and Our
Human Future, publicado em Portugal pela Dom Quixote com o título A Era da
Inteligência Artificial e o Nosso Futuro Humano, quanto mais uma sociedade
depende de infraestruturas digitais, mais vulnerável se torna a ciberataques e a
falhas em cascata, ao ponto de, em cenários extremos, os decisores poderem ser
levados a considerar medidas drásticas, como a limitação temporária de serviços
essenciais, para conter danos e evitar a propagação do ataque.
Em termos militares, a Reuters noticiou que o Irão lançou mais de mil drones nas
fases iniciais do conflito, ou seja, meios relativamente baratos e produzidos em
escala conseguem pressionar sistemas defensivos muito mais caros, sendo
evidente uma alteração estrutural da forma como os conflitos são travados e da
relação entre custo, escala e capacidade destrutiva.
A questão está longe de ser apenas tecnológica: os seus contornos políticos,
jurídicos e éticos não podem ser descurados. Quando os sistemas automatizados
passam a influenciar a identificação de alvos, a avaliação de ameaças ou a
priorização de decisões operacionais, colocam-se problemas fundamentais de
dignidade humana, responsabilidade, proporcionalidade, prudência e controlo
humano. A eficiência técnica não pode substituir princípios éticos, nem a velocidade
algorítmica pode servir de atalho à responsabilidade política.
É nestes aspetos que importa recentrar o debate. Já não está em causa apenas a
autoria do ataque, mas também os mecanismos de seleção, sinalização, priorização
e recomendação que convertem dados em suspeita, correlações em alvos e
probabilidades em ação militar. Quanto mais automatizado se torna este processo,
maior é o risco de erro, de opacidade, de viés e de desresponsabilização.
4
Uma investigação da Associated Press mostrou que, após 7 de outubro de 2023, o
uso, pelo exército israelita, de tecnologia da Microsoft e da OpenAI teve um
aumento significativo, num contexto de recurso crescente a ferramentas de análise,
vigilância, tradução e tratamento de informação operacional, incluindo apoio à
identificação de suspeitos e alvos. Ao mesmo tempo, a própria Microsoft
reconheceu ter fornecido serviços avançados de inteligência artificial e computação
em nuvem ao exército israelita durante a guerra em Gaza, embora negue que essas
tecnologias tenham sido usadas para atingir ou causar dano a pessoas em Gaza.
É verdade que nem tudo está publicamente demonstrado com o mesmo grau de
pormenor. Não existe, pelo menos uma base assente em informação aberta e
verificável que comprove que determinados sistemas específicos anteriormente
associados a operações israelitas tenham sido formalmente identificados neste
conflito militar entre Estados Unidos, Israel e Irão. No entanto, esta circunstância
não invalida o aumento, a normalização e a integração progressiva de sistemas de
inteligência artificial, análise automatizada e ferramentas digitais avançadas em
cenários militares, conforme investigações jornalísticas e notícias recentes.
Quanto mais a guerra depende destes sistemas, mais difícil se torna perceber como
se chegou a determinada decisão, quem a validou, que margem existiu para a
contestar e que responsabilidade pode ser efetivamente apurada quando algo corre
mal. E quando estão em causa vidas humanas, civis, infraestruturas críticas e
regiões já profundamente instáveis, esse problema deixa de ser apenas teórico.
A IA não elimina a responsabilidade humana, mas pode diluí-la, tornando-a mais
difícil de apurar devido à complexidade técnica. E essa talvez seja uma das
questões mais inquietantes do nosso tempo: a facilidade com que sistemas
tecnologicamente sofisticados começam a ser tratados como se fossem neutros,
objetivos ou inevitáveis.
O cessar-fogo agora anunciado pode ter criado uma pausa limitada numa parte do
conflito. Mas não travou a guerra digital, nem o peso crescente da IA na forma como
os conflitos são preparados, conduzidos e legitimados. Perante estas mudanças,
mais uma vez, o direito, a política e a democracia parecem correr atrás dos factos.
5
Se aceitarmos com demasiada facilidade que a eficiência operacional basta para
legitimar o uso destas tecnologias, corremos o risco de normalizar uma guerra cada
vez mais opaca, mais afastada do escrutínio público e mais exposta à erosão dos
limites éticos e dos princípios democráticos que devem continuar a distinguir um
Estado de direito de uma simples lógica de poder. Por isso, o debate sobre a IA em
contexto militar não deve ficar confinado a investigações académicas, ou conversas
de circunstância. Deve ser assumido como uma exigência própria das democracias
contemporâneas. Está em causa a forma como se decide, como se exerce o poder
e como se preservam limites éticos e jurídicos em contextos extremos. E essa
exigência reclama debate público informado, enquadramentos regulatórios
internacionais e princípios éticos efetivos que orientem o desenvolvimento e a
utilização da IA em contextos militares.

