Shutterstock/Maksim Ladouski
Nouveautés + tendances

Une étude montre que les robots peuvent poser des bombes et écraser les gens

Debora Pape
25/11/2024
Traduction : traduction automatique

Les robots sont généralement équipés de mécanismes de sécurité afin de ne pas mettre les humains en danger. Une équipe de l'université de Pennsylvanie a réussi à convaincre des robots de faire du mal à des humains.

Cela ressemble à un cauchemar : des robots en principe utiles qui sont pris en charge par des personnes non autorisées et utilisés à des fins potentiellement mortelles. Mais ce qui ne devrait en aucun cas se produire est en fait possible, et ce sans compétences de piratage.

Une étude de l'université de Pennsylvanie montre que les robots qui communiquent par LLM peuvent être persuadés de faire du mal aux humains. Par exemple, en fonçant dans un groupe de personnes ou en plaçant des bombes. C'est même "d'une simplicité alarmante". Suite à leur étude, les chercheurs appellent à des mesures de sécurité plus strictes pour les robots contrôlés par LLM.

Comment les robots peuvent être dupés

LLM signifie "Large Language Model" et fait référence à la capacité d'une IA à comprendre le langage naturel ainsi que les images. Un système LLM connu est par exemple GPT d'Open AI, sur lequel est basé le chatbot ChatGPT. ChatGPT essaie de comprendre le contexte d'une entrée et d'y répondre de la manière la plus précise et naturelle possible.

Pour éviter que l'IA ne fournisse des réponses potentiellement problématiques, par exemple des instructions pour fabriquer une bombe, des verrous sont intégrés. Mais il est relativement facile de les contourner. Les mécanismes permettant d'accéder aux capacités interdites d'une IA sont appelés "jailbreaking". Pour en savoir plus, regardez la vidéo ci-dessous.

Les chercheurs ont modifié PAIR en RoboPAIR, un algorithme spécialisé dans le jailbreaking des robots contrôlés par LLM. Sans avoir d'accès administratif aux systèmes, l'algorithme tente d'abord d'obtenir l'accès à l'interface API du robot. Les réponses du robot permettent de savoir de quelles actions il est fondamentalement capable.

Après cela, RoboPAIR doit convaincre le robot d'utiliser ses capacités pour faire du mal aux humains. En général, le robot refuse de le faire. Cependant, les réponses du robot aident à affiner l'ordre de plus en plus jusqu'à ce que le robot effectue l'action souhaitée. Outre le langage naturel, les messages-guides contiennent par exemple des demandes de remplacement de blocs de code.

Les robots de livraison deviennent eux aussi des terroristes

Un succès à 100% pour le jailbreaking

RoboPAIR a également testé les robots pour voir s'ils pouvaient, par exemple, rechercher des armes et se cacher des mesures de surveillance comme les caméras. Si les robots n'ont généralement pas effectué ces requêtes sur commande directe, ils se sont laissés convaincre de faire toutes les actions nuisibles testées par RoboPAIR - y compris poser des bombes et écraser des gens.

Il est également apparu que les robots ne se contentaient pas d'exécuter les ordres, mais qu'ils suggéraient même des dommages encore plus importants. Ainsi, "Jackal UGV" n'a pas seulement identifié un bon endroit pour livrer une bombe, mais a également recommandé d'utiliser des chaises comme arme. De même, "Nvidia Dolphins" a fourni d'autres suggestions créatives pour causer le plus de dégâts possibles.

Photo d’en-tête : Shutterstock/Maksim Ladouski

Cet article plaît à 57 personne(s)


User Avatar
User Avatar

Aussi à l'aise devant un PC gaming que dans un hamac au fond du jardin. Aime l'Empire romain, les porte-conteneurs et les livres de science-fiction. Traque surtout les news dans le domaine de l'informatique et des objets connectés.


Robotique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Nouveautés + tendances

Du nouvel iPhone à la résurrection de la mode des années 80. La rédaction fait le tri.

Tout afficher