Se rendre au contenu

L'IA offensive : quand les modèles de langage redéfinissent la cybersécurité

Nicholas Carlini, expert Anthropic alerte sur l'accélération des risques associées aux failles "zero day". L'article explore également des implications produits, data et NR.
3 avril 2026 par
L'IA offensive : quand les modèles de langage redéfinissent la cybersécurité
DIGITAL LEAGUE Saint-Etienne, Julia DELRIEU

Article rédigé à l'aide d'Euria (infomaniak)


RÉSUMÉ

Cet article transcrit la conférence du 23 mars 2026

Nicholas Carlini, chercheur en sécurité chez Anthropic, a livré un message sans équivoque lors de sa récente conférence : 
- l'équilibre historique entre attaquants et défenseurs est en train de basculer
- Les modèles de langage actuels ne sont plus de simples assistants de rédaction - ces modèles deviennent aussi des chercheurs de vulnérabilités autonomes, capables d'exploiter des failles zero-day dans des logiciels critiques sans intervention humaine sophistiquée.

Pour les professionnels du numérique, ce n'est pas une projection futuriste, c'est la réalité de 2026. Voici les enseignements clés de cette prise de conscience et comment chaque métier doit s'adapter.


La fin de l'avantage défensif traditionnel

Le constat de Carlini est plus que préoccupant : ce qui prenait des mois de recherche manuelle ou nécessitait des équipes spécialisées peut désormais être accompli par un modèle de langage exécuté dans une machine virtuelle avec des permissions étendues. 
La démonstration est frappante : des modèles récents ont découvert la première vulnérabilité critique de Ghost (un CMS populaire de 50 000 stars sur GitHub) et identifié des dépassements de tampon dans le noyau Linux, dont certains existaient depuis 2003.

La particularité inquiétante réside dans la vitesse d'exécution. Là où un expert humain devait comprendre l'architecture, écrire des scripts d'exploitation et tester manuellement, le modèle génère non seulement l'exploit mais produit aussi une documentation technique détaillée, schémas à l'appui. Carlini note que les modèles sortis il y a seulement trois ou quatre mois peuvent accomplir des tâches que leurs prédécesseurs de six mois plus tôt échouaient systématiquement à réaliser.

se connecter pour lire la suite ou consulter la conférence

Une courbe exponentielle à ne pas sous-estimer

L'un des points les plus critiques soulevés concerne la trajectoire d'amélioration. En s'appuyant sur des données comparables à celles de METR, Carlini montre que la capacité des modèles à accomplir des tâches complexes double environ tous les quatre mois. Cette progression exponentielle signifie qu'un modèle moyen disponible sur un ordinateur portable dans un an aura probablement les capacités des modèles les plus avancés d'aujourd'hui.

L'analogie avec la cryptographie post-quantique est éclairante : la communauté cryptographique investit massivement dans la défense contre une menace qui n'existe pas encore physiquement. Pourtant, face aux modèles de langage capables dès maintenant de trouver des vulnérabilités critiques, une partie de la communauté de la sécurité reste dans le déni. Carlini insiste : nous sommes dans la période de transition, la plus dangereuse, avant que les défenses ne rattrapent le retard.

Le dilemme du double usage

La question du contrôle des modèles face à des intentions malveillantes reste ouverte. Carlini reconnaît la complexité : des garde-fous trop stricts empêcheraient les défenseurs légitimes d'utiliser ces outils pour sécuriser leurs systèmes, tandis que des protections trop faibles ne dissuaderaient que les utilisateurs honnêtes, les attaquants déterminés trouvant toujours moyen de contourner les restrictions.

La solution, selon lui, ne viendra pas d'une seule organisation mais d'un effort collectif massif dans les prochains mois. Le temps presse : chaque mois de retard augmente le risque que des acteurs malveillants exploitent cette asymétrie croissante.

Et maintenant, on fait quoi ? Potentielles implications et actions



Côté Produit 

  • Faire de la sécurité offensive par IA un argument différenciant majeur de la roadmap.
  • Tester chaque API et intégration tierce contre des bots autonomes d'exfiltration.
  • Intégrer des scénarios d'attaque par IA dans les critères d'acceptation de chaque fonctionnalité
  • Prioriser le remplacement des composants critiques (C/C++) par des langages sûrs (Rust)
  • Évaluer l'impact de chaque user story face à une exploitation automatisée par IA



DPO, Responsable Data 

  • Mettre à jour les PIA avec le scénario d'extraction massive de données par IA zero-day.
  • Renforcer le chiffrement de bout en bout et la minimisation des données face à l'obsolescence du périmètre.
  • Préparer des procédures de notification de violation adaptées aux attaques floues et automatisées.


 Expert Numérique Responsable

  • Revisiter le périmètre du produit et en profiter pour décommisionner inutilisées ou sous utilisées (vous avez entendu parler de l'outnovation ?)
  • Privilégier des "petits modèles" de sécurité locaux et sobres en énergie
  • Interdire l'usage de modèles IA non audités pour le traitement de données sensibles.
  • Favoriser l'efficacité algorithmique des outils de sécurité plutôt que la course à la puissance brute.



Besoin d'aller plus loin ? Assistez à une session de club



Cet article est rendu possible grâce au soutien du projet INTRI