Le « moment Oppenheimer » des robots-tueurs arrive, poussé par la Chine et les États-Unis
Un chien robot multifonctionnel des forces armées allemandes (Bundeswehr) appelé « Wolfgang » lors de sa présentation par le ministre allemand de la défense, le 11 juillet 2022 (AXEL HEIMKEN/AFP via Getty Images)
1 août 2024 12:55 Mis à jour: 1 août 2024 16:21
Le développement et l’application de l’intelligence artificielle (IA) sont de plus en plus répandus, et une nouvelle génération d’armes qui l’intègrent suscite des inquiétudes parmi les experts, notamment les robots à des fins militaires. Ils affirment en effet que l’IA est dénuée de contraintes morales et qu’elle pourrait conduire l’humanité à un « moment Oppenheimer ».
« Aujourd’hui, nous sommes probablement en train de vivre le plus grand changement de l’histoire militaire », avait déclaré le chef d’État-Major interarmées des États-Unis, le Général Mark Milley, « nous sommes à un moment charnière de l’histoire d’un point de vue militaire. Nous vivons ce qui s’apparente à un changement fondamental dans le caractère même de la guerre. »
Après la dernière révolution de la guerre dite mécanisée, nous arrivons aujourd’hui à l’utilisation massive de la robotique et de l’intelligence artificielle, retirant l’homme des décisions militaires.
Le prochain « moment Oppenheimer »
Fin avril 2024, un appel à réguler les armes létales autonomes, aussi surnommées « robots tueurs », avait été lancé à Vienne à l’issue d’une conférence internationale sur le sujet, insistant sur « l’urgence » devant les efforts diplomatiques infructueux, alors que plusieurs États, dont la Russie, la Chine et les États-Unis, s’opposent à un texte contraignant. « C’est le moment Oppenheimer de notre génération », soulignait le document final.
Le « moment Oppenheimer » fait référence à la participation du physicien américain Robert Oppenheimer à la mise au point de la bombe atomique, qui a apporté la victoire aux États-Unis et à leurs alliés lors de la Seconde Guerre mondiale, ce qui lui a valu le titre de « père de la bombe atomique ». Cependant, Oppenheimer a été témoin du désastre que la bombe atomique a causé au peuple japonais et des cicatrices indélébiles qu’elle a laissées dans le monde, l’amenant à se demander si sa décision de participer au développement de la bombe atomique était juste.
Mark Milley est convaincu que les armées les plus puissantes du monde seront majoritairement robotisées au cours de la prochaine décennie. « Au cours des dix à quinze prochaines années, une grande partie des armées des pays avancés deviendront robotisées », a-t-il déclaré en 2023, au média Defense One. « Si vous ajoutez à la robotique l’intelligence artificielle, les munitions de précision et la capacité de voir à distance, vous obtenez le mélange d’un véritable changement fondamental », a-t-il averti.
Le pape François a lui-même mis en garde le 14 juin 2024 contre l’usage militaire de l’intelligence artificielle, appelant à interdire les « armes autonomes létales », lors d’un discours au G7 dans le sud de l’Italie. « Dans un drame tel qu’un conflit armé, il est urgent de repenser le développement et l’utilisation de dispositifs tels que les ‘armes autonomes létales’ afin d’en interdire l’usage », a-t-il déclaré devant les chefs d’État et de gouvernement des démocraties. « Aucune machine ne devrait jamais choisir d’ôter la vie à un être humain », a insisté le pape, farouche opposant au commerce des armes.
De l’invasion russe en Ukraine aux crises au Moyen-Orient, les tensions géopolitiques sont en train de conduire à des percées militaires majeures et très dangereuses concernant l’utilisation de l’IA. Robots, drones, torpilles… toutes sortes d’armes pourraient être transformées en systèmes autonomes, régis par des algorithmes, ce qui s’annonce, de l’avis des experts, comme la troisième révolution majeure dans le domaine des équipements militaires, après l’invention de la poudre à canon et la bombe atomique.
Les deux plus grandes puissances militaires du monde, la Chine et les États-Unis, sont au premier rang des nations qui cherchent à développer une IA militaire létale. Le régime communiste chinois met au point des systèmes létaux basés sur l’IA et investit dans des capacités d’IA liées à la prise de décision militaire et au commandement.
La Chine investit massivement dans les armes autonomes létales
Dans cette course à l’armement autonome létal, le régime chinois investit dans des plateformes dotées d’intelligence artificielle qui devront mener un jour des missions meurtrières en temps de guerre, sans aucune intervention ni contrôle de la part de l’homme.
« Les meilleures indications disponibles […] suggèrent que la stratégie de la Chine est ambitieuse, allant au-delà de toute forme de supervision humaine sur le champ de bataille vers une guerre de plus en plus autonome fondée sur l’IA » affirme Gregory Allen, directeur du Wadhwani Center for AI and Advanced Technologies au Centre d’études stratégiques et internationales.
Selon lui, le Parti communiste chinoise (PCC) investit massivement dans un large éventail de nouvelles technologies, mais l’IA est la plus importante d’entre elles. La capacité du régime à construire des machines de guerre pilotées par l’IA atteint rapidement la parité avec celle des États-Unis, et pourrait même la dépasser bientôt.
« Même si les États-Unis disposent d’avantages importants, la Chine pourrait être en mesure de prendre rapidement la tête en matière d’adoption des capacités d’IA par les gouvernements et les forces armées. » selon Gregory Allen. Les ambitions du régime en matière d’IA ne se limitent pas aux robots tueurs. Le PCC investit également dans le développement de capacités d’IA liées à la prise de décision militaire et au commandement.
L’objectif du PCC est de retirer l’élément humain de la décision militaire avec une transformation de la guerre par l’intégration massive de l’IA, de l’automatisation et du big data. En résumé, des armes entièrement autonomes – des « robots tueurs », seraient en mesure de sélectionner et d’attaquer des cibles sans intervention humaine.
Une réglementation mais pour qui ?
Fin avril 2024, une conférence de deux jours s’est tenue à Vienne en Autriche, appelant tous les pays à discuter ensemble sur la question de la militarisation de l’IA. Plus de 1000 participants de plus de 140 pays ont participé à la conférence, dont des dirigeants politiques, des experts et des membres de la société civile.
« C’est le moment Oppenheimer de notre génération », a déclaré Alexander Schallenberg, ministre autrichien des Affaires étrangères, lors de la conférence sur les systèmes d’armes autonomes. « Les systèmes d’armes autonomes envahiront bientôt les champs de bataille du monde entier. Nous le voyons déjà avec les drones à IA et la sélection des cibles reposant sur l’IA », a-t-il déclaré.
Il a expliqué qu’il était urgent d’établir des règles et des normes internationalement reconnues pour empêcher l’IA d’échapper au contrôle humain et de menacer l’humanité. Il faut veiller à ce que les armes soient contrôlées par des hommes et non par l’IA.
Selon Human Rights Watch, « il est douteux que les armes totalement autonomes soient capables de respecter les normes du droit international humanitaire, notamment les règles de distinction, de proportionnalité et de nécessité militaire, alors qu’elles menacent le droit fondamental à la vie et le principe de la dignité humaine », c’est pourquoi l’ONG appelle à une interdiction préventive sur le développement, la production et l’utilisation d’armes totalement autonomes.
« Nous nous approchons d’un seuil critique pour agir s’agissant des préoccupations relatives aux systèmes d’armes autonomes, et le soutien aux négociations atteint des niveaux sans précédent », a déclaré Steve Goose, directeur de la division Armes de Human Rights Watch. « L’adoption d’un traité international solide pour encadrer de tels systèmes est plus nécessaire et urgente que jamais. »
Le 22 décembre 2023, 152 pays dont la France ont voté en faveur de la première résolution de l’Assemblée générale des Nations Unies sur les systèmes d’armes autonomes, quatre s’étant prononcés contre et 11 s’étant abstenus. La résolution reconnaît « les enjeux de taille et les vives inquiétudes » soulevés par « les nouvelles applications technologiques dans le domaine militaire, y compris celles liées à l’intelligence artificielle et à l’autonomie des systèmes d’armes ».
Elle pourrait déboucher sur un traité d’interdiction et de régulation des systèmes d’armes autonomes, même si rien ne pourra avancer si les principales puissances belligérantes du monde, la Russie, la Chine, les États-Unis, refusent d’en freiner le développement, tant le danger est grand en cas de lancement d’une guerre robotique par l’une des autres parties.
Source : EpochTimes
Laisser un commentaire