Contexte : l’IA, nouvelle cible prioritaire des cyberattaques
Google alerte que les systèmes d’intelligence artificielle, autrefois vus comme des leviers de productivité, deviennent désormais la cible principale des cyberattaques. Son rapport Cybersecurity Forecast 2026 met en lumière la montée en puissance des attaques visant les modèles d’IA et leurs infrastructures, notamment les « Shadow Agents » — des agents autonomes non supervisés qui connectent entre eux services cloud, messageries et outils SaaS, créant des brèches d’exfiltration de données sensibles.
Début 2026, Google Threat Intelligence Group a révélé une cyberattaque massive contre Gemini, son modèle d’IA, impliquant plus de 100 000 requêtes malveillantes conçues pour extraire ses capacités internes. Ces opérations, menées selon Google par des acteurs étatiques de la Chine, de l’Iran, de la Corée du Nord et de la Russie, marquent une étape majeure : l’IA devient à la fois cible et arme numérique.
En parallèle, des rapports de sociétés comme CrowdStrike indiquent une hausse de 89 % des cyberattaques liées à l’IA. Le délai moyen pour compromettre un réseau atteint 27 secondes, illustrant la vitesse alarmante des attaques automatisées.
Pourquoi c’est important : un basculement stratégique pour la cybersécurité
Cette évolution bouleverse les priorités des entreprises et des gouvernements. Les cybercriminels exploitent désormais l’IA pour perfectionner leurs propres offensives : injections de prompts (commandes manipulées pour détourner des modèles), clonage vocal pour escroqueries téléphoniques (« vishing »), et automatisation complète du cycle d’attaque. Les outils d’IA offensifs permettent d’explorer des milliers de vulnérabilités en quelques heures, rendant obsolètes certaines défenses traditionnelles.
Google et d’autres acteurs recommandent une « gestion d’identité agentique », soit l’application de méthodes d’authentification et d’audit aux agents d’IA autonomes. L’objectif : assurer qu’un agent n’agit que dans un cadre supervisé et traçable. Sans cette gouvernance, les organisations s’exposent à des risques de conformité majeurs, notamment dans les secteurs réglementés manipulant des données médicales ou financières.
Les experts soulignent également l’émergence d’une « course à l’IA » dans la cybersécurité : les défenseurs développent des agents IA pour détecter plus vite les intrusions, tandis que les attaquants automatisent de plus en plus leurs opérations. Chaque progrès de l’un alimente la sophistication de l’autre, créant un équilibre instable.
Ce que cela change : vers une refonte des défenses numériques
Pour les entreprises, l’alerte lancée par Google impose un changement de paradigme. Les équipes de sécurité doivent désormais surveiller non seulement les utilisateurs humains, mais aussi les comportements des agents IA internes et externes. La traçabilité devient un enjeu central : lorsqu’un agent prend des décisions autonomes, il faut pouvoir relier chaque action à une identité vérifiée et à une validation humaine.
Des solutions émergent, comme les SOC agentiques (centres opérationnels de sécurité dopés à l’IA), capables de corréler en temps réel alertes et activités suspectes. Cependant, ces dispositifs restent fragiles face aux « angles morts » créés par les Shadow Agents, invisibles pour les outils de supervision classiques. Les entreprises doivent donc compléter leurs défenses par des politiques de validation systématique avant toute action critique.
Les analystes estiment que cette transformation pourrait amener une refonte profonde des opérations de sécurité, où la collaboration entre humains et IA deviendra la norme. L’« hyper-automatisation » offre de nouvelles capacités d’analyse, mais amplifie aussi les risques de dérives non contrôlées.
À surveiller : gouvernance et régulation mondiale
Les données disponibles ne précisent pas quelles régulations internationales concrètes sont en préparation, mais plusieurs questions demeurent. Comment instaurer une gouvernance d’identité pour les agents IA sans bloquer la productivité ? Quelles métriques permettront de repérer en temps réel les agents non conformes ? Et surtout, jusqu’où les États utiliseront-ils leurs propres modèles pour des actions offensives ?
L’année 2026 s’annonce comme un tournant pour la sécurité des modèles IA publics tels que Gemini. La régulation, la transparence des usages et la validation humaine apparaissent désormais comme les trois piliers indispensables pour maintenir la confiance dans un écosystème numérique de plus en plus autonome et vulnérable.
