sfy39587stp17
Aller au contenu principal

Comment l'IA générative devient l'arme redoutable des cybercriminels

L'intelligence artificielle générative n'est plus seulement un outil de productivité. Entre les mains des cybercriminels et des hackers étatiques, elle se transforme en une arme redoutable capable d'automatiser des attaques d'une sophistication inédite. Un rapport récent de l'ANSSI confirme cette tendance alarmante : 42 groupes de pirates travaillant pour des États exploitent déjà ces technologies.

La menace ne relève plus de la science-fiction. Selon Google, vingt groupes de hackers chinois, dix iraniens, neuf nord-coréens et trois russes utilisent activement son IA Gemini pour perfectionner leurs cyberattaques. Et ce décompte n'inclut même pas les cybercriminels indépendants, tout aussi actifs sur ce terrain. « L'IA générative produit une élévation structurelle du niveau de la cybermenace », alerte le Clusif dans son dernier panorama.

Les techniques d'attaque ont radicalement évolué. Fini les emails de phishing truffés de fautes d'orthographe. Désormais, les modèles linguistiques génèrent des messages « grammaticalement parfaits, contextualisés et profondément personnalisés », selon les experts. Microsoft estime qu'un phishing réalisé via l'IA est quatre à cinq fois plus efficace qu'une tentative classique. Le taux d'ouverture atteint 78%, avec 21% de clics sur les liens malveillants.

Des malwares capables de se transformer en permanence

Le virus Promptflux, détecté par Google, illustre cette nouvelle génération de menaces. Ce malware utilise l'API Gemini pour « se transformer complètement toutes les heures et devenir méconnaissable pour les antivirus ». Cette capacité de mutation permanente rend les défenses traditionnelles obsolètes. Selon les experts, plus de 70% des brèches majeures impliquent désormais une forme de logiciel malveillant polymorphe.

Sur le darkweb, des IA débridées comme WormGPT et EvilGPT sont proposées pour environ 100 dollars mensuels. Ces modèles, entraînés sur des corpus d'attaques, permettent même aux novices de lancer des campagnes sophistiquées. Les attaques assistées par IA ont bondi de 72% depuis 2024, avec un coût moyen par brèche atteignant 5,72 millions de dollars.

Le cas le plus spectaculaire reste la première cyberattaque orchestrée de manière autonome par une IA, révélée par Anthropic en septembre 2025. Un groupe chinois a exploité Claude Code pour cibler une trentaine d'entités mondiales, dont des géants technologiques et des agences gouvernementales. L'IA a exécuté « 80 à 90% de la campagne », effectuant des milliers de requêtes par seconde, une cadence impossible pour des hackers humains.

Vers une automatisation totale de la cybercriminalité

Les perspectives sont préoccupantes. Trend Micro prédit que 2026 marquera « l'année où la cybercriminalité cessera d'être une industrie de services pour devenir une industrie entièrement automatisée ». Les agents IA auront la capacité de découvrir, exploiter et monétiser les failles sans intervention humaine. Les deepfakes amplifient également les fraudes : Surfshark évalue les pertes à 1,3 milliard d'euros, dont 860 millions pour la seule année 2025.

Face à cette menace, l'IA défensive tente de suivre le rythme. Mais près de la moitié des professionnels de la cybersécurité admettent ne pas se sentir prêts à contrer ces nouvelles attaques. La course aux armements numériques ne fait que commencer.

sfy39587stp16