La cybercriminalité pourrait être le seul emploi que l'IA ne prend pas, suggère une étude

En résumé

  • Des chercheurs de Cambridge, Édimbourg et Strathclyde ont analysé 97 895 threads de forums de cybercriminalité postés après le lancement de ChatGPT.
  • Les outils de « Dark AI » comme WormGPT ont généré un buzz culturel mais ont produit presque aucun malware fonctionnel, tandis que les chatbots jailbreakés deviennent de plus en plus difficiles à faire fonctionner plus de quelques jours.
  • La plus grande criminalité mesurable alimentée par l’IA n’est pas le piratage. Ce sont le spam SEO de masse, les escroqueries amoureuses et les nudes générés par IA vendus à un dollar chacun.

Pendant trois ans, les entreprises de cybersécurité, les gouvernements et les laboratoires d’IA ont averti que l’IA générative libérerait une nouvelle génération de hackers suralimentés. Selon un nouvel article académique qui a réellement examiné la question, ces hackers suralimentés utilisent principalement ChatGPT pour écrire du spam et générer des nudes pour le plaisir. L’étude, intitulée Complexe Autonome ou Vibercrime ?, a été publiée sur arXiv par des chercheurs de Cambridge et d’autres universités, et vise à comprendre comment le cybercrime underground adopte réellement l’IA, et non comment les vendeurs de cybersécurité le prétendent. « Nous présentons ici l’une des premières tentatives d’étude empirique à méthodes mixtes des premiers modèles d’adoption de GenAI dans le cybercrime underground », ont écrit les chercheurs.

L’équipe a analysé 97 895 threads de forums postés après le lancement de ChatGPT en novembre 2022, extraits du dataset CrimeBB du Cambridge Cybercrime Centre, comprenant des forums underground et du dark web. Ils ont réalisé des modèles thématiques, lu manuellement plus de 3 200 threads, et se sont immergés ethnographiquement dans la scène.  La conclusion n’est pas flatteuse pour la communauté du doom de l’IA : 97,3 % des threads de l’échantillon ont été classés comme « autres », c’est-à-dire ne traitant pas réellement de l’utilisation de l’IA pour le crime. Seul 1,9 % impliquaient quelqu’un utilisant des outils de codage vibe. ‘Rien de plus qu’un ChatGPT sans restriction’ Vous vous souvenez de WormGPT, FraudGPT, et de la vague de chatbots soi-disant malveillants qui ont fait la une en 2023 ? Les données du forum racontent une histoire différente.

La plupart des posts sur les produits de « Dark AI », ont découvert les chercheurs, étaient des gens suppliant pour un accès gratuit, de la spéculation oisive, et des plaintes selon lesquelles les outils ne fonctionnaient pas réellement. Un développeur d’un service Dark AI populaire a finalement admis aux membres du forum que le produit était un exercice de marketing. « En fin de compte, [CybercrimeAI] n’est rien de plus qu’un ChatGPT sans restriction », a écrit le développeur, avant la fermeture du projet. « Quiconque sur Internet peut utiliser une technique de jailbreak bien connue et obtenir les mêmes, voire de meilleurs, résultats. » Fin 2024, disent les chercheurs, les jailbreaks pour les modèles grand public étaient devenus jetables. La plupart cessent de fonctionner en une semaine ou moins. Les modèles open-source peuvent être jailbreakés indéfiniment, mais ils sont lents, gourmands en ressources, et figés dans le temps. « Les garde-fous pour les systèmes d’IA s’avèrent à la fois utiles et efficaces », concluent les auteurs, ce qu’ils qualifient eux-mêmes de découverte contre-intuitive pour un article critique. Le codage vibe est réel. Le hacking vibe, principalement, ne l’est pas L’article aborde directement le rapport largement couvert d’Anthropic d’août 2025, affirmant que Claude Code aurait été utilisé pour mener une campagne d’extorsion « vibe hacking » contre 17 organisations. Les données de l’équipe de Cambridge ne montrent tout simplement pas ce pattern dans l’underground plus large. Dans les forums qu’ils ont étudiés, les assistants de codage IA sont utilisés de la même manière que les développeurs mainstream : comme autocomplétion et remplaçants de Stack Overflow pour des programmeurs déjà compétents. Les acteurs peu qualifiés s’en tiennent à des scripts préfabriqués, car ils fonctionnent. Les chercheurs ont constaté que même les hackers ne font pas confiance à leurs outils de hacking codés vibe. « La programmation assistée par IA est une épée à double tranchant. Elle accélérera le développement mais amplifie aussi les risques comme le code peu sécurisé et les vulnérabilités de la chaîne d’approvisionnement », a déclaré un utilisateur dans un forum surveillé par les chercheurs. Un autre a mis en garde contre la perte de compétences à long terme : « Il est clair maintenant que l’utilisation de l’IA pour le code cause une dégradation très rapide de vos compétences », a écrit un hacker dans un forum, « Si votre objectif est simplement de produire des escroqueries SaaS et que vous ne vous souciez pas de la qualité/sécurité/performance du code, il peut être viable de vibe coder. (Cela semble aussi viable pour le phishing). »

Cela contraste fortement avec les prévisions alarmistes d’Europol, qui en 2025, avaient averti qu’une IA entièrement autonome pourrait un jour contrôler des réseaux criminels. Où l’IA aide réellement les criminels La perturbation, lorsqu’elle apparaît, se situe au bas de la chaîne alimentaire. Les escrocs SEO utilisent des LLM pour produire en masse du spam de blogs afin de compenser la baisse

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler