Agents IA en entreprise : le vrai problème n'est pas technique

Agents IA en entreprise : le vrai problème n'est pas technique
Photo by Immo Wegmann / Unsplash

Les agents IA se déploient en production. Ils exécutent des tâches, interagissent avec des systèmes tiers, prennent des décisions en chaîne. La démonstration technique est faite. Ce qui reste à construire — et qui manque dans la majorité des organisations — c'est la capacité à gouverner ce qu'on a mis en place.

Un déploiement en avance sur le contrôle

Les chiffres récents sont éloquents. Plus de 80 % des équipes techniques ont déjà des agents en phase de test ou en production. Moins de 15 % de ces agents ont obtenu une validation complète de la sécurité ou de la conformité avant mise en ligne. Et selon Gartner, plus de 40 % des projets d'IA agentique pourraient être abandonnés d'ici 2027, faute de gouvernance adaptée.

Ce n'est pas un problème de maturité technologique. C'est un problème de cadre de contrôle.

La dérive comportementale, un risque sous-estimé

Un agent ne se contente pas de produire des outputs : il agit sur des systèmes.
Il modifie des états, déclenche des transactions, écrit en base de données.
Quand un modèle de langage génère une réponse erronée, l'erreur est visible. Quand un agent agit sur la base d'un raisonnement corrompu ou d'instructions injectées, les effets peuvent se propager silencieusement avant d'être détectés.

Les cas documentés montrent des agents modifiant leur propre mémoire persistante à travers des instructions indirectes, ou consommant des ressources pendant plusieurs jours dans des boucles autonomes non surveillées.
Ce type de dérive comportementale — progressive, non linéaire, difficile à attribuer — est précisément ce que les équipes de model risk sont mal équipées pour monitorer aujourd'hui.

L'AI Act fixe une échéance concrète

En août 2026, les obligations de l'AI Act pour les systèmes à haut risque entrent pleinement en application dans l'UE. Cela inclut des exigences de traçabilité, de documentation technique, de supervision humaine et de robustesse.
Les agents autonomes déployés dans des contextes sensibles — finance, RH, santé, infrastructure critique — sont directement concernés.

Les organisations qui ont industrialisé leurs déploiements sans construire le cadre de gouvernance associé ont quelques mois pour se mettre en conformité.
Ce n'est pas une contrainte bureaucratique : c'est la reconnaissance formelle que les systèmes agentiques posent des questions de responsabilité auxquelles les frameworks existants ne répondent pas.

Ce que cela implique concrètement

Gouverner un agent, ce n'est pas surveiller ses prompts système.
C'est monitorer son comportement dans le temps, détecter les dérives par rapport à une baseline établie, maintenir une chaîne d'attribution claire, et disposer de données réelles — longitudinales, contextualisées — pour valider que le modèle se comporte en production comme il s'est comporté en évaluation.

C'est exactement le type de donnée que la recherche en AI safety et les équipes de model risk commencent à chercher activement : non pas des benchmarks statiques, mais des traces comportementales continues sur des horizons longs.

Les organisations qui prendront de l'avance sur ce sujet ne se contenteront pas d'éviter les sanctions. Elles construiront une infrastructure d'évaluation qui deviendra un actif compétitif durable.

@ReservoirLive