Israël utilise déjà l’IA comme arme – mais pas comme il le prétend

Publié le

Israël utilise déjà l’IA comme arme – mais pas comme il le prétend

Les universitaires et les militants qui soutiennent les droits des Palestiniens font-ils parfois involontairement la promotion de l'industrie d'armement israélienne ? La machine de battage médiatique militaire israélienne utilise l'occupation comme un « laboratoire » ou comme une « vitrine » pour ses armes nouvellement développées, mais cela crée un dilemme pour les militants qui s'opposent aux exportations d'armes israéliennes. Les universitaires et les militants ont l'obligation morale de mettre en lumière les crimes commis par les forces israéliennes. Mais en soulignant la destruction, la souffrance et la mort causées par ces armes, les militants peuvent, par inadvertance, reproduire exactement la propagande qui permet à Israël de vendre ses technologies de mort, de destruction et de répression.

Pour éviter de tomber dans le piège du battage médiatique israélien, nous devons prendre du recul et examiner les méthodes israéliennes d'oppression et de violence d'État au fil du temps. Récemment, les forces israéliennes en Cisjordanie sont revenues aux méthodes d'il y a 20 ans, lors de la deuxième Intifada, avec un hélicoptère Apache tirant des balles sur une foule entière. La technologie recule.

Les logiciels espions sont un bon exemple de ce battage médiatique. Les sociétés israéliennes de logiciels espions ont reçu l'autorisation du gouvernement pour vendre des logiciels espions au plus offrant ou à des régimes autoritaires avec lesquels le gouvernement israélien souhaitait améliorer ses relations. Cela ne fait pas des logiciels espions une technologie israélienne : les services de renseignement aux États-Unis, en Russie et dans d'autres pays ayant accès aux logiciels espions ne les proposent tout simplement pas à la vente sur le marché.

Dans son livre, Le Laboratoire PalestineAntony Loewenstein explique comment ce battage médiatique est fabriqué pour stimuler les ventes des sociétés d'armement israéliennes, et Rhys Machhold a également mis en garde contre les critiques contre les crimes israéliens qui sont détournés en matériel promotionnel par les sociétés mêmes que les activistes tentent d'arrêter.

Au-delà de la machine à battage médiatique israélienne

Le développement le plus récent de la machine à battage médiatique est l'intelligence artificielle. Le développement rapide de l'intelligence artificielle, dotée de la capacité d'apprendre et de s'adapter, suscite à la fois crainte et crainte dans les et sur les réseaux sociaux. Il n'est donc pas surprenant que les institutions israéliennes de l'apartheid tentent déjà de se présenter comme des précurseurs.

Dans son article pour Chargeur 972, Sophia Goodfriend met en garde contre l'utilisation de l'intelligence artificielle par l'armée israélienne, mais sa seule source pour étayer cette affirmation est l'armée israélienne elle-même. En juin 2022, la plus grande entreprise d'armement d'Israël, Elbit Systems, a présenté son nouveau système d'essaim de robots tueurs appelé Legion-X, le qualifiant de « piloté par l'IA ». L'arme est en effet terrifiante. Il est important de souligner, cependant, que la Legion-X contient moins de fonctionnalités d'IA qu'une voiture autonome et qu'il n'y a aucune preuve qu'elle sera plus ou moins meurtrière que toute autre unité militaire opérant dans un quartier civil en territoire occupé. .

Lire aussi  Vous souhaitez soutenir les grévistes ? N'annulez pas encore votre abonnement Netflix.

Netanyahu a prononcé un discours passionné sur Israël comme leader mondial dans la recherche sur l'IA, qui contient autant de vérité que n'importe quel autre discours de Netanyahu. Le PDG d'Open AI et l'un des développeurs les plus célèbres du système ChatGPT, Sam Altman, a refusé l'opportunité de rencontrer Netanyahu lors d'un voyage prévu en Israël début juin. Netanyahu a ensuite rapidement annoncé qu'Israël engagerait NVIDIA, une société dont les actions montaient en flèche en raison de son implication dans l'IA, pour construire un supercalculateur pour le gouvernement israélien. Les plans ont été abandonnés quelques jours plus tard lorsqu'il est devenu évident que l'idée de construire le supercalculateur était basée sur un caprice et non sur une étude de faisabilité. Il est intéressant de noter que l'annulation du mégaprojet a été publiée en hébreu, mais pas dans les médias anglophones.

La peur de l'IA alimente un débat animé sur les dangers de l'IA, avec d'éminents spécialistes de l'IA tels qu'Eliezer Yudkowsky tirant la sonnette d'alarme et avertissant que le développement non supervisé de l'IA devrait être considéré comme aussi dangereux que les armes de destruction massive. Les discussions sur les dangers de l'IA se concentrent sur le danger posé par les armes autonomes, ou par la prise de contrôle par l'IA de systèmes entiers afin d'atteindre un objectif que lui a assigné un opérateur imprudent. L'exemple courant est l'instruction hypothétique donnée à un puissant système d'IA pour « résoudre le changement climatique », un scénario dans lequel l'IA procède rapidement à l'extermination des êtres humains, qui sont, logiquement, la cause du changement climatique.

Sans surprise, le débat israélien sur l'IA est très différent. L'armée israélienne prétend avoir déjà installé un canon autonome à Hébron, mais Israël est à la traîne par rapport à l'UE, au Royaume-Uni et aux États-Unis lorsqu'il s'agit de réglementer l'IA afin de minimiser les risques. Israël est classé 22e dans l'indice de préparation à l'IA d'Oxford Insights. En octobre 2022, la ministre israélienne de la Technologie et de l'Innovation, Orit Farkash-Hacohen, a déclaré qu'aucune législation n'était nécessaire pour réglementer l'IA.

Les armes autonomes, ou rébellion des robots, ne constituent cependant pas le plus grand risque posé par les nouveaux développements de l'IA. À mon avis, le modèle de langage, souvent appelé ChatGPT, et la capacité de fabriquer des images, du son et des vidéos – suffisamment réalistes pour ressembler à une documentation authentique – peuvent donner un pouvoir illimité aux d'IA suffisamment riches pour acheter un accès sans restriction. .

Lire aussi  Netanyahu rejette les appels au cessez-le-feu alors que le bilan des morts à Gaza dépasse les 8 300

Dans une conversation avec ChatGPT, si vous essayez d'aborder des sujets à risque, le programme vous informera que vous répondre violerait les directives. ChatGPT a le pouvoir de recueillir des informations privées sur des individus, de collecter des informations sur la façon de fabriquer des explosifs dangereux, des armes chimiques ou biologiques, et le plus dangereux – ChatGPT sait comment parler de manière convaincante aux êtres humains et leur faire croire un certain mélange de vérité et de mensonges. ce qui peut influencer leur politique. La seule chose qui empêche les utilisateurs de ChatGPT de faire des ravages, ce sont les protections installées par les développeurs, qu'ils peuvent tout aussi facilement supprimer.

Des sociétés de désinformation telles que Cambridge Analytica ont démontré comment les élections peuvent être influencées en diffusant de fausses nouvelles et, plus important encore, en adaptant les fausses informations aux individus – en utilisant les données collectées sur leur âge, leur sexe, leur situation familiale, leurs passe-temps, leurs goûts et leurs aversions – pour influencer les élections. eux. Bien que Cambridge Analytica ait finalement été dénoncée, le groupe israélien Archimedes qui travaillait avec eux n'a jamais été dénoncé ni tenu pour responsable. Un récent rapport de Histoires interdites a révélé que le Groupe Archimède continue de vivre comme une industrie de désinformation et de trucage d'élections basée en Israël, mais opérant dans le monde entier. Les entreprises de désinformation utilisent déjà des formes rudimentaires d'IA pour créer des armées de faux avatars, qui diffusent de la désinformation sur les réseaux sociaux. Les candidats qui peuvent se permettre de détruire la réputation de leurs adversaires peuvent acheter leur entrée dans la fonction publique. C'est illégal, mais le gouvernement israélien a choisi de permettre à ce secteur d'opérer librement hors d'Israël.

Leader mondial dans l'utilisation abusive de l'IA

Récemment, Jeanne, Point noir, et même le Département américain de la Sécurité intérieure ont discuté des risques éthiques posés par l'OSINT (renseignement open source). L'espionnage, qui implique le vol d'informations et la surveillance secrète, est risqué et illégal, mais en collectant des informations accessibles au public à partir de sources ouvertes, telles que les journaux, les réseaux sociaux, etc., les espions peuvent établir des profils complets sur leurs cibles. Une opération OSINT menée par une agence de renseignement dans un pays étranger nécessite beaucoup de temps, d'efforts et d'argent. Une équipe d'agents parlant la langue et comprenant les coutumes locales doit être constituée, puis rassembler minutieusement des informations sur une cible, qui pourraient ensuite être utilisées pour une diffamation – ou même un véritable assassinat.

Encore une fois, Israël n'est pas un leader de l'OSINT, mais il est un leader dans l'utilisation sans scrupules de ces méthodes pour obtenir de l'argent. La société israélienne Black Cube, créée par d'anciens agents du Mossad, a proposé ses services à des criminels comme Harvey Weinstein et a tenté de diffamer les femmes qui portaient plainte contre lui. Heureusement, Black Cube a échoué dans la plupart de ses projets. Leurs mensonges n'étaient pas assez crédibles, leurs couvertures trop évidentes, les informations recueillies trop incomplètes.

Lire aussi  Du Montana à l’Amazonie, n’oublions pas de célébrer les victoires climatiques

Avec les nouvelles capacités de l'IA, tout cela change. Quiconque peut soudoyer les fournisseurs d'IA pour désactiver les restrictions éthiques sur l'IA aura le pouvoir de mener une opération OSINT en quelques minutes, ce qui nécessiterait normalement des semaines et une équipe de dizaines d'humains. Grâce à ce pouvoir, l'IA peut être utilisée non seulement pour tuer des personnes avec des armes autonomes, mais, bien plus sérieusement, elle peut jouer un rôle subversif, en influençant le processus de prise de décision des êtres humains dans leur capacité à distinguer l'ami de l'ennemi.

Les organisations de défense des droits de l'homme et les experts de l'ONU reconnaissent aujourd'hui que l'État d'Israël est un régime d'apartheid. Les autorités israéliennes n'ont pas besoin de l'IA pour tuer des civils palestiniens sans défense. Ils ont cependant besoin de l'IA pour justifier leurs actions injustifiables, pour présenter le meurtre de civils comme « nécessaire » ou « dommage collatéral » et pour éviter de rendre des comptes. Les propagandistes humains n'ont pas été capables de protéger la réputation d'Israël – c'est une tâche trop difficile pour un être humain. Mais Israël espère que l'IA réussira là où les êtres humains ont échoué.

Il n'y a aucune raison de penser que le régime israélien a accès à une technologie d'IA autre que celle disponible sur le marché commercial, mais il y a toutes les raisons de croire qu'il fera tout son possible et franchira toute ligne rouge pour maintenir l'apartheid et la colonisation. colonialisme contre le peuple palestinien. Avec les nouveaux modèles de langage d'IA disponibles, tels que ChatGPT, la seule chose qui pourra s'opposer à ce régime et à son objectif est que les développeurs d'IA reconnaissent le risque d'armer un régime d'apartheid avec une technologie aussi dangereuse.

Le commandant de la police secrète israélienne, Ronen Bar, a annoncé que cela se produit déjà et que l'IA est utilisée pour prendre des décisions autonomes en ligne et surveiller les gens sur les réseaux sociaux, afin de les blâmer pour des crimes qu'ils n'ont pas encore commis. C'est un signal d'alarme : l'IA est déjà utilisée comme arme par Israël. Cependant, prévenir les dommages causés par l'IA n'est possible que si nous prenons le temps de la comprendre.

Avatar de Charles Briot