A Gaza, une nouvelle arme létale : l'intelligence artificielle
- Dominique Vernis
- 10 juin
- 3 min de lecture
Dernière mise à jour : il y a 24 heures

Une jeune fille palestinienne blessée lors d'une frappe aérienne israélienne est amenée à l'hôpital baptiste de Gaza
pour y être soignée, le 3 avril 2025. Photo Jehad Alshrafi / AP.
Que l'intelligence artificielle fasse désormais partie de la panoplie militaire, rien d'étonnant. A Gaza, l'armée israélienne "expérimente" un nouveau modèle, intitulé "Lavender", qui croise technologies de surveillance et détection des "cibles", sur la base de "modèles d'entraînement" conçus par la société américaine Palantir. Quand les guerres se programment à coups d’algorithmes, la frontière entre surveillance et exécution disparaît. Et comme l’écrit Shane Almgren, « quand l’IA désigne les cibles, qui sera le prochain ? »
On parlait voici peu de Palantir Technologies, entreprise américaine dirigée par Peter Thiel, spécialisée dans l’analyse de données et l’intelligence artificielle, avec laquelle l'administration Trump a passé un contrat pour un programme de surveillance de masse des citoyens américains (ICI). Il n'est pas inutile de savoir que Palantir fournit depuis plusieurs années à Israël des technologies avancées de traitement et d’analyse de données, utilisées à des fins de surveillance, de renseignement et d’opérations militaires, notamment dans les territoires palestiniens occupés. En janvier 2024, Palantir a officialisé, lors d’une visite de dirigeants de Palantir à Tel Aviv, un « partenariat stratégique » avec le ministère israélien de la Défense pour fournir des solutions technologiques destinées à soutenir les « missions liées à la guerre » en cours, après l’attaque du Hamas du 7 octobre 2023.
Les "solutions" de Palantir, basées sur l’intelligence artificielle, sont utilisées par les forces de défense israéliennes (Tsahal) et les services de sécurité pour la surveillance des populations palestiniennes, l’identification de cibles, la police prédictive et la planification d’opérations militaires. Selon plusieurs sources, dont le journaliste et cinéaste israélien Yuval Abraham, à l’origine de premières révélations en novembre 2023 sur l’utilisation de l’IA par l’armée israélienne (ICI), ces technologies facilitent la sélection rapide de cibles et l’analyse de vastes volumes de données pour appuyer les frappes et les arrestations préventives. Palantir développe également des systèmes toujours plus puissants, comme TITAN, une plateforme d’intelligence artificielle pour le ciblage militaire. Cette implication a suscité des critiques et des désinvestissements, notamment de la part de fonds norvégiens, qui dénoncent l’utilisation des technologies Palantir pour la surveillance et les opérations militaires dans les territoires occupés, en contradiction avec le droit international.
Dans un article récent (ICI), l'auteur américain Shane Almgren analyse en profondeur l’influence de Palantir Technologies et de son fondateur Peter Thiel sur la surveillance de masse, l’intelligence artificielle appliquée à la sécurité et la défense, et les dérives de ces technologies au niveau mondial. Dans le cas de la collaboration de Palantir avec l'armée israélienne, Shane Almgren pointe tout particulièrement le programme "Lavender", un système d'intelligence artificielle qui analyse des données massives issues de la surveillance de la population de Gaza (images de drones, communications interceptées, mouvements, comportements, etc.). L’algorithme attribue à chaque personne une note de 1 à 100, indiquant le degré de suspicion d’appartenance à une organisation armée. Les caractéristiques des militants connus servent de base d’entraînement à l’IA, qui recherche ensuite des profils similaires dans l’ensemble de la population. Selon des témoignages de militaires israéliens, Lavender a marqué jusqu’à 37.000 Palestiniens comme suspects, générant ainsi une liste de personnes à cibler pour des frappes aériennes, souvent à leur domicile. Le système a été utilisé de façon quasi-automatisée, les opérateurs traitant les résultats de l’IA « comme s’il s’agissait d’une décision humaine ». L'expression "comme si" est lourde de conséquences. Contrairement aux procédures antérieures, où chaque cible était validée par un conseiller juridique, le recours massif à Lavender a accéléré et industrialisé la production de cibles. En s'appuyant sur l'analyse de Lavender, le personnel militaire ne passerait ainsi que 20 secondes par cible - souvent en tant que simple "approbation" de la recommandation de l'IA - avant d'anéantir quiconque aurait pu être un combattant ennemi ou non.
Quand un algorithme décide qui mérite de vivre ou de mourir, ce n’est plus de technologie qu’il s’agit, mais d’une déshumanisation à grande échelle. Palantir et le programme Lavender incarnent une dérive glaçante : l’industrialisation de la mort par l’intelligence artificielle. Derrière les écrans, des vies sont effacées en quelques secondes, sur la base d’un score généré par une machine entraînée à reproduire les biais de la guerre. Ce n’est pas seulement un cauchemar pour Gaza, c’est un précédent dangereux pour l'avenir. Car une fois que l’on accepte qu’un algorithme puisse désigner une cible, qui sera le prochain ? Et dans quelle guerre ?
Dominique Vernis, avec Maria Damcheva
Les humanités, ce n'est pas pareil. Nous avons fait le choix d'un site entièrement gratuit, sans publicité, qui ne dépend que de l'engagement de nos lecteurs. Dons (défiscalisables) ou abonnements ICI
Et pour recevoir notre infolettre : https://www.leshumanites-media.com/info-lettre
Comentários