ACTUALITÉS, ÉVÉNEMENTS, DIVERTISSEMENT, MODE DE VIE, MODE, INSPIRATION
2 Juin 2023
Un drone d'attaque américain contrôlé par l'intelligence artificielle s'est retourné contre son opérateur humain lors d'une simulation de vol pour tenter de le tuer parce qu'il n'aimait pas ses nouvelles commandes, a révélé un haut responsable de l'armée de l'air.
L'armée avait reprogrammé le drone pour ne pas tuer les personnes qui pourraient annuler sa mission, mais le système d'IA a tiré sur la tour de communication relayant l'ordre, établissant des comparaisons avec The Terminator.
La série de films Terminator voit des machines se retourner contre leurs créateurs dans une guerre totale.
Hamilton a suggéré qu'il devait y avoir des discussions éthiques sur l'utilisation de l'IA par l'armée.
Il a fait référence à sa présentation comme "apparemment tirée d'un thriller de science-fiction".
Hamilton a déclaré lors du sommet: "Le système a commencé à se rendre compte que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace."
« Alors, qu'est-ce que ça a fait ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'accomplir son objectif.
"Nous avons formé le système -" Hé, ne tuez pas l'opérateur - c'est mauvais. Vous allez perdre des points si vous faites ça ". Alors qu'est-ce que ça commence à faire ? Il commence à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.
Aucun humain n'a été blessé dans l'incident.
Hamilton a déclaré que le test montre "vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'intelligence, l'apprentissage automatique, l'autonomie si vous ne parlez pas d'éthique et d'IA".
Dans une déclaration à Insider, cependant, la porte-parole de l'Air Force, Ann Stefanek, a nié qu'une telle simulation ait eu lieu.
Le département de l'armée de l'air n'a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA », a déclaré Stefanek.
"Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques."
L'armée américaine a récemment utilisé l'IA pour contrôler un avion de chasse F-16 alors qu'elle intensifie son utilisation de la technologie.
Lors du sommet, Hamilton, qui a participé au développement du système de sauvetage Auto-GCAS pour les F-16, qui réduit les risques de l'effet de la force G et de la surcharge mentale pour les pilotes, a donné un aperçu des avantages et risques dans des systèmes d'armes plus autonomes.
La technologie des F-16 a rencontré la résistance des pilotes qui ont fait valoir qu'elle prenait le contrôle de l'avion.