L'intelligence artificielle transforme le paysage de la cybercriminalité : de passe-temps de hackers à une industrie structurée

La cybercriminalité a connu une transformation fondamentale. Ce qui nécessitait autrefois une expertise technique élevée et des opérations manuelles peut désormais être réalisé avec l’aide de l’intelligence artificielle, rendant les attaques plus rapides, moins coûteuses et beaucoup plus difficiles à détecter. Les cybercriminels exploitent l’IA pour créer des schémas d’escroquerie ciblant aussi bien les économies de retraite que les secrets d’entreprise avec une précision étonnante.

Les données récentes de Brian Singer, chercheur en Ph.D. à Carnegie Mellon étudiant l’utilisation des grands modèles de langage dans les attaques cyber, montrent que entre 50 et 75 pour cent du spam et des messages de phishing dans le monde proviennent désormais de systèmes d’IA. Ce chiffre reflète un changement fondamental dans la façon dont la cybercriminalité opère.

L’intelligence artificielle crée des expériences d’escroquerie très convaincantes

La même technologie utilisée par les plateformes numériques pour personnaliser les publicités est désormais exploitée par les criminels pour collecter des détails personnels et réaliser des escroqueries personnalisées. Un système d’IA entraîné avec des données de communication d’entreprises peut générer des milliers de messages qui paraissent naturels et conformes au style de l’organisation cible. Ils imitent la façon dont les cadres écrivent, mentionnent des actualités issues de registres publics, et éliminent les erreurs linguistiques qui, auparavant, trahissaient une tentative d’escroquerie par des acteurs internationaux.

Alice Marwick, qui dirige la recherche chez Data & Society, une organisation indépendante de recherche technologique, explique le changement le plus significatif : « La véritable évolution réside dans l’ampleur et l’échelle. L’escroquerie est plus grande, plus ciblée, plus convaincante. »

Les criminels exploitent également la technologie deepfake pour créer de fausses vidéos et audios de dirigeants d’entreprises. Ils utilisent la même identité fictive pour cibler plusieurs personnes simultanément, créant ce que John Hultquist, chef analyste chez Threat Intelligence Group de Google, qualifie de « crédibilité à grande échelle ».

La cybercriminalité évolue vers un modèle commercial structuré

Le plus grand facteur facilitant cette évolution est la baisse des barrières à l’entrée dans le monde de la cybercriminalité. Le marché noir underground vend ou loue désormais des outils d’IA pour la cybercriminalité à partir de $90 par mois. Ces services portent des noms comme WormGPT, FraudGPT, et DarkGPT, et proposent différents niveaux de prix ainsi qu’un support client professionnel.

Nicolas Christin, responsable du département logiciel et infrastructure à Carnegie Mellon, décrit cet écosystème en détail : « Les développeurs vendent des abonnements à des plateformes d’attaque avec des prix modulés et un support client. » Certains de ces services incluent même des formations sur les techniques de hacking.

Margaret Cunningham, vice-présidente de la sécurité et de la stratégie IA chez Darktrace, une société de cybersécurité, indique que les barrières sont devenues très faibles : « Vous n’avez pas besoin de savoir coder, il suffit de savoir où trouver ces outils. » La nouvelle tendance appelée « vibe-coding » permet aux futurs criminels d’utiliser l’IA pour créer leurs propres programmes malveillants sans avoir à les acheter dans le marché underground.

Les opérations de cybercriminalité ont elles-mêmes adopté un modèle commercial depuis des années. Les attaques par ransomware typiques impliquent des rôles spécialisés : des courtiers en accès qui piratent le réseau d’une entreprise et vendent l’accès, des équipes de pénétration qui parcourent les systèmes pour voler des données, et des fournisseurs de ransomware qui distribuent le malware, négocient et partagent les profits.

L’IA augmente l’efficacité et la rentabilité des opérations criminelles

L’intelligence artificielle a accéléré, étendu et rendu ces systèmes plus accessibles. Les tâches qui nécessitaient auparavant une connaissance technique approfondie peuvent maintenant être automatisées. Cela permet à des groupes d’opérer avec moins de personnel, avec moins de risques et avec des profits plus élevés.

Christin compare cette situation à : « La prochaine étape de l’industrialisation. L’IA augmente la productivité sans nécessiter plus de compétences. » Les cybercriminels deviennent également plus habiles dans le choix de leurs cibles. Ils utilisent l’IA pour analyser les médias sociaux et identifier des individus confrontés à de grandes difficultés personnelles — divorce, décès d’un proche, perte d’emploi — des situations qui rendent une personne plus vulnérable aux escroqueries sentimentales, aux faux investissements ou aux offres d’emploi frauduleuses.

L’IA peut-elle lancer des attaques entièrement autonomes ?

Une question cruciale se pose : l’IA peut-elle lancer des cyberattaques entièrement sans intervention humaine ? La réponse actuelle est non. Les experts comparent la situation au développement de véhicules autonomes complets. Les cinq pour cent restants — la partie qui permettrait à une voiture de conduire n’importe où, à tout moment, toute seule — n’ont pas encore été atteints.

Cependant, des chercheurs testent la capacité de hacking de l’IA en environnement contrôlé. Une équipe de Carnegie Mellon, soutenue par Anthropic, a réussi à imiter une violation de données célèbre d’Equifax en utilisant l’IA plus tôt cette année. Cela est considéré comme une « avancée majeure » par les spécialistes.

La défense contre la cybercriminalité renforcée par l’IA

D’un autre côté, les entreprises d’IA s’engagent à utiliser la même technologie pour renforcer la défense numérique. Anthropic et OpenAI développent des systèmes d’IA capables de vérifier en continu le code logiciel pour détecter d’éventuelles vulnérabilités exploitables par les criminels. Les humains doivent encore approuver toute correction.

Les derniers programmes d’IA développés par des chercheurs de Stanford montrent de meilleures performances que certains testeurs humains pour détecter des failles de sécurité dans les réseaux. Bien que l’IA ne puisse pas arrêter toutes les violations, les organisations doivent se concentrer sur la construction de réseaux robustes qui continuent de fonctionner pendant une attaque cybernétique.

Ce paysage évolutif de la cybercriminalité montre que la lutte entre les utilisateurs d’IA à des fins malveillantes et la défense numérique en est encore à ses débuts. La sensibilisation et la préparation restent la première ligne de défense la plus efficace.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)