EN / FR

« Les robots ne sont pas, encore, des machines à tuer autonomes. Même la règle brièvement envisagée à San Francisco aurait conservé un exploitant humain dans le processus décisionnel. »

Branka Marijan sur les risques des robots armés dans Newsweek

Parmi les défis que l’IA pose à la gouvernance mondiale, son application à la guerre et à la défense est la plus complexe, comme Bessma Momani, Aaron Shull et Jean-François Bélanger l’ont écrit dans l’introduction de la série d’essais sur l’éthique de la guerre automatisée et l’intelligence artificielle. La guerre en Ukraine est devenue le dernier terrain d’essai des armes activées par l’intelligence artificielle, notamment des drones aériens et marins autonomes de pointe.

Lors du sommet sur l’intelligence artificielle dans le domaine militaire (REAIM 2023), à la Hague, Branka Marijan et d’autres personnes ont discuté des « robots tueurs » encore pilotés par des êtres humains, mais peut-être pas pour longtemps si la gouvernance ne parvient pas à maîtriser le phénomène. Il est réellement tentant de libérer ces machines, y compris dans les capacités d’application de la loi, ce qui serait une immense erreur selon Branka Marijan. Comme David Evan Harris l’a allégué dans The Guardian, la course vers le bas concernant la sécurité de l’IA doit cesser pour éviter de nuire réellement aux gens.

0%

Rapport annuel 2023