nouvelles

Les criminels sur Internet exploitent ChatGPT pour mener des cyberattaques dangereuses


La société OpenAI a révélé dans son dernier rapport que l’utilisation de l’intelligence artificielle ne se limite pas aux avantages positifs, mais s’étend également aux activités criminelles menaçant la cybersécurité. Le rapport indique que le programme de chatbot ChatGPT est devenu un outil utile pour les cybercriminels, qui l’utilisent pour rédiger du code et développer des programmes malveillants, reflétant ainsi un nouveau tournant dans les méthodes des attaques électroniques.

Selon le rapport intitulé « Impact and Operations: Update », plus de vingt opérations électroniques malveillantes ont été signalées depuis le début de l’année 2024, où ChatGPT a été utilisé dans diverses attaques en ligne, y compris le phishing et l’ingénierie sociale. Le rapport montre comment les cybercriminels utilisent les capacités de traitement du langage naturel offertes par ChatGPT pour accomplir des tâches qui exigent normalement des compétences techniques avancées, facilitant ainsi l’exécution des attaques.

Le premier cas documenté de l’utilisation de l’intelligence artificielle dans les attaques électroniques remonte à avril 2024, lorsque la société de sécurité Proofpoint a identifié le groupe de cyberespionnage chinois « TA547 », également connu sous le nom de « Scully Spider », qui a diffusé des logiciels malveillants créés par l’intelligence artificielle. Cela a été suivi d’un rapport de HP Wolf Security en septembre, qui faisait référence à des scripts créés par l’intelligence artificielle utilisés dans des attaques multi-étapes visant les utilisateurs en France.

Un des cas les plus marquants concerne le groupe « SweetSpecter », qui a ciblé les gouvernements asiatiques et envoyé des e-mails d’hameçonnage contenant des fichiers ZIP malveillants aux employés d’OpenAI. Ce groupe a utilisé ChatGPT pour analyser les vulnérabilités de sécurité et rechercher des failles dans les systèmes.

Dans un autre cas, le groupe iranien « CyberAv3ngers » a utilisé ChatGPT pour obtenir des informations d’identification pour les contrôleurs industriels, mettant en lumière les risques potentiels pesant sur l’infrastructure critique.

En réponse à ces menaces, OpenAI a pris des mesures immédiates en fermant les comptes liés à ces activités et en partageant des informations sur les indicateurs de compromission avec des partenaires en cybersécurité. La société travaille également à renforcer ses systèmes de surveillance pour détecter les schémas suspects qui pourraient indiquer un comportement malveillant, dans le but de protéger sa plateforme contre toute exploitation supplémentaire dans des activités criminelles.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Back to top button
error: Content is protected !!