Article rédigé à l'aide d'Euria (infomaniak)
RÉSUMÉ
Cet article transcrit la conférence du 23 mars 2026
Nicholas Carlini, chercheur en
sécurité chez Anthropic, a livré un message sans équivoque lors de sa
récente conférence :
- l'équilibre historique entre attaquants et
défenseurs est en train de basculer
- Les modèles de langage actuels ne
sont plus de simples assistants de rédaction - ces modèles deviennent aussi des
chercheurs de vulnérabilités autonomes, capables d'exploiter des failles
zero-day dans des logiciels critiques sans intervention humaine
sophistiquée.
Pour les professionnels du
numérique, ce n'est pas une projection futuriste, c'est la réalité de
2026. Voici les enseignements clés de cette prise de conscience et
comment chaque métier doit s'adapter.
La fin de l'avantage défensif traditionnel
Le constat de Carlini est plus que préoccupant : ce qui prenait des mois de recherche manuelle ou nécessitait
des équipes spécialisées peut désormais être accompli par un modèle de
langage exécuté dans une machine virtuelle avec des permissions
étendues.
La démonstration est frappante : des modèles récents ont
découvert la première vulnérabilité critique de Ghost (un CMS populaire
de 50 000 stars sur GitHub) et identifié des dépassements de tampon dans
le noyau Linux, dont certains existaient depuis 2003.
La particularité inquiétante
réside dans la vitesse d'exécution. Là où un expert humain devait
comprendre l'architecture, écrire des scripts d'exploitation et tester
manuellement, le modèle génère non seulement l'exploit mais produit
aussi une documentation technique détaillée, schémas à l'appui. Carlini
note que les modèles sortis il y a seulement trois ou quatre mois
peuvent accomplir des tâches que leurs prédécesseurs de six mois plus
tôt échouaient systématiquement à réaliser.
se connecter pour lire la suite ou consulter la conférence
Une courbe exponentielle à ne pas sous-estimer
L'un des points les plus critiques soulevés concerne la trajectoire d'amélioration. En s'appuyant sur des données comparables à celles de METR, Carlini montre que la capacité des modèles à accomplir des tâches complexes double environ tous les quatre mois. Cette progression exponentielle signifie qu'un modèle moyen disponible sur un ordinateur portable dans un an aura probablement les capacités des modèles les plus avancés d'aujourd'hui.
L'analogie avec la cryptographie post-quantique est éclairante : la communauté cryptographique investit massivement dans la défense contre une menace qui n'existe pas encore physiquement. Pourtant, face aux modèles de langage capables dès maintenant de trouver des vulnérabilités critiques, une partie de la communauté de la sécurité reste dans le déni. Carlini insiste : nous sommes dans la période de transition, la plus dangereuse, avant que les défenses ne rattrapent le retard.
Le dilemme du double usage
La question du contrôle des modèles face à des intentions malveillantes reste ouverte. Carlini reconnaît la complexité : des garde-fous trop stricts empêcheraient les défenseurs légitimes d'utiliser ces outils pour sécuriser leurs systèmes, tandis que des protections trop faibles ne dissuaderaient que les utilisateurs honnêtes, les attaquants déterminés trouvant toujours moyen de contourner les restrictions.
La solution, selon lui, ne viendra pas d'une seule organisation mais d'un effort collectif massif dans les prochains mois. Le temps presse : chaque mois de retard augmente le risque que des acteurs malveillants exploitent cette asymétrie croissante.
Et maintenant, on fait quoi ? Potentielles implications et actions
Côté Produit
- Faire de la sécurité offensive par IA un argument différenciant majeur de la roadmap.
- Tester chaque API et intégration tierce contre des bots autonomes d'exfiltration.
- Intégrer des scénarios d'attaque par IA dans les critères d'acceptation de chaque fonctionnalité
- Prioriser le remplacement des composants critiques (C/C++) par des langages sûrs (Rust)
- Évaluer l'impact de chaque user story face à une exploitation automatisée par IA
DPO, Responsable Data
- Mettre à jour les PIA avec le scénario d'extraction massive de données par IA zero-day.
- Renforcer le chiffrement de bout en bout et la minimisation des données face à l'obsolescence du périmètre.
- Préparer des procédures de notification de violation adaptées aux attaques floues et automatisées.
Expert Numérique Responsable
- Revisiter le périmètre du produit et en profiter pour décommisionner inutilisées ou sous utilisées (vous avez entendu parler de l'outnovation ?)
- Privilégier des "petits modèles" de sécurité locaux et sobres en énergie
- Interdire l'usage de modèles IA non audités pour le traitement de données sensibles.
- Favoriser l'efficacité algorithmique des outils de sécurité plutôt que la course à la puissance brute.
Besoin d'aller plus loin ? Assistez à une session de club