Em uma época dominada pela tecnologia e em que as inovações tecnológicas avançam rapidamente, era de se esperar que a inteligência artificial trouxesse promessas de um futuro melhor para a humanidade, sendo uma ferramenta criada pelo ser humano para servi-lo. Em Gaza, porém, Israel virou essas promessas de cabeça para baixo, transformando a máquina inteligente em um assassino silencioso que não perdoa e que toma decisões de matar a sangue-frio. Um recente relatório do New York Times revelou esse lado sombrio e perigoso, levantando o véu sobre a exploração por Israel da guerra sangrenta em Gaza como um campo de testes para novas tecnologias militares apoiadas por inteligência artificial: uma guerra conduzida por algoritmos que não distinguem entre combatente e civil, entre alvo legítimo e uma criança adormecida.
Neste cenário, o ser humano não é mais do que um dado digital, apenas um alvo numa tela de controle remoto. A incursão que visou o dirigente do Hamas, Ibrahim al-Bayari, baseada em um algoritmo de voz que identificou o local de sua chamada telefônica, não diferenciou entre um comandante militar e um bebê de colo ou uma idosa. O resultado foi o assassinato de al-Bayari, juntamente com mais de 125 civis que caíram vítimas de um algoritmo que não conhece o significado da vida nem respeita a sua sacralidade.
O que está acontecendo hoje, com a corrida desenfreada das grandes forças armadas para desenvolver “armas inteligentes”, abre amplamente a porta para questões éticas graves. Teriam as guerras modernas passado a ser conduzidas por programas computacionais que decidem quem vive e quem morre? Teriam as considerações humanas se tornado algo secundário diante da obsessão tecnológica por alcançar “o golpe mais preciso”?

O mais perigoso de tudo é que essas novas tecnologias ameaçam abolir a ideia de responsabilização. Quem julgará um algoritmo que tomou a decisão de matar? E quem carregará a responsabilidade por massacres cometidos por equações matemáticas projetadas para capturar “o alvo ideal”, sem consideração pelas almas inocentes?
Em Gaza, bairros superpovoados foram transformados em campos de testes. Os seres humanos ali se tornaram números em experimentos que não diferem muito dos testes de armas químicas ou nucleares realizados em décadas passadas. E diante dessa realidade, o silêncio internacional — especialmente por parte das grandes potências e das gigantes tecnológicas — não significa apenas cumplicidade, mas também concede cobertura ao uso da inteligência artificial como instrumento de assassinato em massa.
Leia mais notícias sobre Gaza na seção Genocídio Palestino.
O ser humano criou a ciência para servir à vida. Como, então, aceitou transformá-la em ferramenta para ampliar o espaço da morte?
Hoje, antes que este modelo se expanda e se torne a norma nos conflitos futuros, devemos perguntar claramente: quem estabelecerá limites para o uso da inteligência artificial nas guerras? E quem protegerá os inocentes de programas que desconhecem o caminho da misericórdia?
Gaza não é um laboratório. E seu povo não são amostras de teste em um laboratório militar. São seres humanos de carne e osso, que possuem o direito à vida e à dignidade, como qualquer ser humano na face da Terra.
O silêncio diante deste declínio ético é cumplicidade com o futuro sombrio que pode aguardar a todos nós.
Em Gaza hoje, não caem apenas bombas, mas com elas também desmoronam todos os valores da humanidade. Quando a inteligência artificial se torna uma ferramenta de matar sem vigilância nem consciência, o silêncio se torna uma traição duplicada. O silêncio do mundo diante desses crimes concederá legitimidade para que as guerras futuras sejam administradas por máquinas que não conhecem o caminho da misericórdia. O que acontece em Gaza não é o fim de uma tragédia, mas o começo de uma era sombria, a menos que a humanidade se mova imediatamente para estabelecer limites à loucura da máquina.
Edição de Texto: Alexandre Rocha