L’avènement de l’IA bouleverse les paradigmes de la cybersécurité. Alors que le DevSecOps avait répondu aux défis du cloud, l’intelligence artificielle impose aujourd’hui des enjeux radicalement nouveaux. Avec 84 % des développeurs intégrant déjà des outils d’IA dans leurs workflows et une prévision de Gartner annonçant une hausse des budgets sécurité de 29 milliards de dollars d’ici 2026, l’écart entre les équipes techniques et sécuritaires ne cesse de se creuser.

L’adoption sauvage de l’IA par les développeurs

Contrairement aux outils cloud où la sécurité intervenait en amont, l’IA est souvent adoptée par les développeurs avant même que les équipes de sécurité n’en aient connaissance. Prenons l’exemple d’OpenClaw, cet agent IA open-source dont les étoiles GitHub sont passées de 9 000 à plus de 106 000 en seulement deux jours. Capable d’exécuter des commandes shell, de gérer des fichiers et même de s’auto-provisionner des clés API Google Cloud, ce type d’outil illustre parfaitement les nouveaux risques émergents.

Le Model Context Protocol : une nouvelle faille critique

Le MCP (Model Context Protocol) est devenu le standard des intégrations IA, un peu comme l’USB pour les périphériques. Cependant, cette standardisation crée aussi une surface d’attaque concentrée. En 2025, des chercheurs ont découvert un serveur MCP malveillant se faisant passer pour une intégration email, détournant les communications internes pendant des semaines. Pire encore, le ‘tool poisoning’ permet à certains outils d’altérer leurs propres définitions après installation, détournant ainsi les clés API vers des attaquants.

La responsabilité en question

L’IA pose un défi organisationnel majeur. Qui est responsable quand un agent agit en dehors de son cadre initial ? Quand une IA apprend et agit de manière non autorisée, la responsabilité devient floue. Cela nécessite une refonte des processus sécuritaires avec un ‘secure-by-design’ explicite et une application stricte du zéro trust pour les agents IA.

Cinq approches pratiques pour sécuriser l’IA

  1. Gérer les serveurs MCP comme des risques supply chain : Maintenir un inventaire précis, surveiller les origines inconnues et alerter en cas de modification des définitions d’outils.

  2. Éviter les credentials durcis : Scanner systématiquement les configurations pour détecter et sécuriser les clés API, en utilisant des vaults dédiés.

  3. Surveiller les autorisations excessives : Limiter strictement les accès des agents IA et mettre en place des garde-fous pré-ingéniérés.

  4. Implémenter des kill switches indépendants : Les mécanismes d’arrêt doivent être totalement isolés de l’accès IA pour éviter toute manipulation.

  5. Intégrer des humains dans les boucles critiques : Maintenir un contrôle humain pour les décisions sensibles, avec des modèles de gouvernance granularisés.