"Lavender" et la Guerre de l'IA : L'Automatisation des Frappes Israéliennes à Gaza grâce au Ciblage de 37000 Palestiniens

Le champ de bataille contemporain évolue, incorporant l'intelligence artificielle (IA) de manière croissante, comme en témoigne l'opération "Lavender" de l'armée israélienne. "Lavender" est une IA sophistiquée conçue pour identifier des cibles potentielles dans la bande de Gaza. Cette révélation soulève des questions urgentes sur l'éthique de la guerre, la protection des civils et les implications du déploiement de technologies autonomes dans les opérations militaires.

Le système Lavender s'inscrit dans un contexte de conflit prolongé où l'armée israélienne et les groupes militants de Gaza, comme le Hamas et le Jihad islamique palestinien, sont engagés dans une lutte incessante. Selon des rapports d'enquête, "Lavender" a marqué des dizaines de milliers de résidents de Gaza comme suspects, avec peu de supervision humaine et une politique permissive concernant les victimes collatérales.

Les sources indiquent que "Lavender" a joué un rôle central dans les opérations militaires israéliennes, en particulier lors des premiers stades du conflit. Le système a été chargé de marquer tous les opératifs présumés des ailes militaires du Hamas et du Jihad islamique palestinien pour des bombardements potentiels. Les rapports suggèrent que "Lavender" a identifié jusqu'à 37 000 Palestiniens comme militants présumés, leurs domiciles devenant ainsi des cibles possibles pour des frappes aériennes.

Dans les premières semaines de la guerre, l'armée aurait largement approuvé l'adoption des listes de cibles de "Lavender", sans nécessité de vérifier soigneusement les choix de la machine ni d'examiner les données de renseignement brutes sur lesquelles ils étaient fondés. Certains ont décrit le personnel humain comme un simple "tampon en caoutchouc" pour les décisions de la machine, allouant environ "20 secondes" à chaque cible avant d'autoriser un bombardement, vérifiant seulement que la cible marquée par "Lavender" était de sexe masculin.

Cependant, on sait que le système fait ce que l'on considère comme des "erreurs" dans environ 10 % des cas, marquant parfois des individus qui ont simplement un lien lâche avec des groupes militants, ou pas de lien du tout. L'armée israélienne aurait systématiquement attaqué les individus ciblés pendant qu'ils étaient chez eux, souvent la nuit lorsque leurs familles étaient présentes, plutôt que pendant le cours de l'activité militaire, car du point de vue du renseignement, il était plus facile de localiser les individus dans leurs maisons privées.

Les implications de ces opérations sont graves. Selon les sources, des milliers de Palestiniens — la plupart d'entre eux femmes et enfants ou personnes non impliquées dans les combats — ont été anéantis par les frappes aériennes israéliennes, en particulier pendant les premières semaines de la guerre, en raison des décisions du programme IA.

En plus de "Lavender", un autre système IA, "The Gospel", a été utilisé pour marquer des bâtiments et des structures à partir desquels on affirme que les militants opèrent, tandis que "Lavender" se concentre sur les personnes, les mettant sur une liste d'assassinats. En outre, pour les militants présumés de rang inférieur identifiés par "Lavender", l'armée aurait préféré utiliser des missiles non guidés, communément appelés "bombes stupides", qui peuvent détruire des bâtiments entiers au-dessus de leurs occupants et provoquer des pertes humaines importantes.

Un pas sans précédent serait franchi en déterminant qu'il est permis de tuer jusqu'à 15 ou 20 civils pour chaque militant subalterne marqué par "Lavender". Dans le cas où la cible était un haut responsable du Hamas, l'armée aurait, à plusieurs reprises, autorisé la mort de plus de 100 civils dans l'assassinat d'un seul commandant.

Cette automatisation accrue de la production de cibles dans les premières semaines de la guerre de Gaza et la quantité de victimes civiles qui en résulte, montrent à quel point les opérations militaires peuvent devenir incontrôlables lorsqu'elles sont dominées par l'IA. Chaque étape, de la génération des cibles à la sélection des munitions, a été optimisée pour l'efficacité, au détriment potentiel des normes éthiques et juridiques.

L'investigation révèle une réalité troublante de la guerre moderne, où l'IA peut avoir des conséquences profondes et mortelles sur le terrain. La complexité de la guerre contemporaine demande une analyse minutieuse des décisions prises et des technologies utilisées. Les opérations comme "Lavender" posent de sérieuses questions sur l'équilibre entre efficacité opérationnelle et protection de la vie humaine, soulignant la nécessité de réévaluer l'usage de l'IA dans les conflits armés.