"Depuis des mois, Israël utilise des systèmes d’intelligence artificielle dans sa guerre contre les civils de Gaza.
Parmi ces systèmes :
Parmi ces systèmes :
• Lavender, chargé de détecter automatiquement les “suspects”, en grande partie via des profils numériques.
• Genie, un assistant façon ChatGPT intégré au système militaire israélien, capable de générer en quelques secondes des cibles à attaquer sur la base d’une simple requête en langage courant.
Un commandant tape quelques mots, l’IA propose des coordonnées. Une frappe suit. Et une famille disparaît." Tomy sur X.
IA et apartheid : quand la tech est au service d’un génocide
Le principe ? Un programme entraîné sur plus de 100 milliards de mots arabes issus de conversations interceptées, destiné à analyser, prédire et identifier les personnes à arrêter. Plus besoin de preuves tangibles : l’IA répond aux questions des militaires et leur balance directement des listes de » suspects « .
De la surveillance de masse au fichage automatisé
Le plus flippant ? Les Palestinien·nes n’ont pas besoin d’être militant·es pour être ciblé·es. Leur simple existence dans une zone donnée suffit à les faire apparaître sur les radars de l’armée. Comme l’explique Nadim Nashif, de l’ONG 7amleh :
"Les Palestinien·nes sont des cobayes dans le laboratoire israélien. Cette IA est une arme de plus pour maintenir un régime d’apartheid et d’occupation."
Quand l’industrie de la tech collabore avec l’armée
Un "hasard" ? Pas vraiment. Google a déjà été épinglé pour son partenariat avec Israël via le projet Nimbus, qui fournit au gouvernement des outils cloud et d’IA. De son côté, Microsoft a permis à l’armée israélienne d’accéder aux modèles d’OpenAI pour booster son propre système.
Une IA pour intensifier la répression
Que va-t-il se passer avec cet outil entre les mains de l’armée israélienne ? La réponse est simple : une répression encore plus massive, plus rapide, plus aveugle. Déjà, en Cisjordanie, les arrestations arbitraires explosent. Des commandants militaires exigent des quotas d’arrestations mensuelles, transformant la traque en un simple objectif statistique.
Comme l’explique une source dans l’enquête : "Parfois, c’est juste un commandant qui veut 100 arrestations par mois dans sa zone."
Plus besoin de preuves, plus besoin d’enquête, une IA se charge du sale boulot. Et pendant ce temps, le monde ferme les yeux.
L’avenir : une généralisation de l’IA répressive ?
Israël n’est pas le seul État à rêver d’une IA pour fliquer les masses. De la reconnaissance faciale en Chine à l’IA prédictive aux États-Unis, les gouvernements capitalistes testent et perfectionnent un futur où chaque individu sera sous contrôle permanent.
Ce qui est testé aujourd’hui en Palestine pourrait bien se généraliser demain à toute contestation sociale. Un monde où les algorithmes dictent qui est suspect, qui doit être arrêté, qui doit être réduit au silence.
Refuser l’apartheid numérique
L’intelligence artificielle entre dans une nouvelle ère de répression. Ce que fait Israël aujourd’hui aux Palestinien·nes pourrait être demain la norme partout ailleurs.
Se battre contre cette technologie de l’oppression, c’est se battre pour la liberté de tous.tes. Refuser que des algorithmes décident de qui vit, qui meurt, qui est digne d’exister. Face à cet avenir dystopique, la seule réponse est la résistance.