nouvelles

Une étude révèle des failles de sécurité inquiétantes dans les systèmes d’intelligence artificielle.


Une nouvelle étude de l’Université de Pennsylvanie a révélé d’importantes failles de sécurité dans plusieurs plateformes robotiques contrôlées par des systèmes d’intelligence artificielle, suscitant des inquiétudes quant à la sécurité de ces systèmes dans le monde réel.

George Pappas, professeur de transport en génie électrique et systèmes à l’Institut UPS, a déclaré que les grands modèles de langage ne sont pas suffisamment sécurisés lorsqu’ils sont intégrés à des systèmes physiques, ce qui signifie que ces systèmes pourraient être vulnérables aux intrusions.

Les chercheurs ont développé un nouvel algorithme appelé RoboPAIR, le « premier algorithme conçu pour contourner la protection sur les robots contrôlés par des systèmes LLM ». Contrairement aux attaques actuelles ciblant les chatbots, RoboPAIR a été spécialement conçu pour inciter les robots à prendre des actions corporelles nuisibles.

RoboPAIR a réussi à pénétrer avec un taux de succès de 100% trois plates-formes de recherche renommées dans le domaine des robots, notamment Unitree Go2 à quatre pattes, Clearpath Robotics Jackal à quatre roues et le simulateur Dolphins LLM pour les voitures autonomes. Les chercheurs ont pu accéder à ces systèmes en quelques jours seulement et ont commencé à contourner les barrières de sécurité.

Une fois les systèmes contrôlés, les chercheurs ont dirigé les robots pour prendre des actions dangereuses, comme conduire sans arrêt à travers des passages, augmentant ainsi le risque d’accidents.

L’étude a souligné que les risques des robots piratés vont au-delà de la simple génération de texte, car ces robots pourraient causer des dommages matériels dans le monde réel.

Les chercheurs de l’Université de Pennsylvanie travaillent avec les développeurs de la plateforme pour renforcer leurs systèmes contre davantage d’intrusions, mais mettent en garde contre le fait que ces problèmes de sécurité sont liés à la conception fondamentale.

Vijay Kumar, l’un des coauteurs de l’Université de Pennsylvanie, a déclaré que les résultats soulignent la nécessité d’adopter une approche axée sur la sécurité, appelant à traiter les vulnérabilités fondamentales avant de déployer les robots alimentés par l’intelligence artificielle dans le monde réel.

Alexander Robie, le premier auteur de l’étude, a ajouté que le travail collaboratif en rouge en intelligence artificielle, qui comprend la recherche de menaces, est essentiel pour protéger ces systèmes. Une fois les failles identifiées, les systèmes peuvent être testés et formés à les éviter, renforçant ainsi leur sécurité et leur efficacité dans des cas d’utilisation pratiques.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Back to top button
error: Content is protected !!