Gouvernance de l'IA : faut-il laisser les géants tech faire la loi ?
Quand les gardiens du temple sont aussi les marchands
Imaginez un monde où les grandes banques rédigeraient elles-mêmes les règles prudentielles qui les encadrent. Absurde ? Pourtant, c'est précisément ce qui se passe aujourd'hui avec l'intelligence artificielle. Les entreprises qui développent les systèmes les plus puissants de la planète sont aussi celles qui pèsent le plus lourd dans les discussions réglementaires mondiales. Cette situation n'est pas une anomalie : c'est une menace structurelle pour nos démocraties.
À l'heure où l'IA s'infiltre dans nos tribunaux, nos hôpitaux, nos processus d'embauche et nos flux d'information, la question de savoir qui fixe les règles n'est plus technique. Elle est fondamentalement politique.
Le grand paradoxe de l'autorégulation
Depuis plusieurs années, les géants de la tech ont développé une stratégie bien rodée : publier des chartes éthiques internes, créer des comités d'experts maison, financer des think tanks favorables à leurs positions, et participer activement aux consultations publiques avec des ressources incomparables face aux régulateurs. Ce phénomène porte un nom dans le monde académique : le regulatory capture, ou capture réglementaire.
Le résultat ? Des cadres réglementaires qui ressemblent davantage à des guides de bonnes pratiques volontaires qu'à des obligations contraignantes. OpenAI, Google DeepMind, Anthropic ou Meta publient régulièrement des documents sur leurs engagements en matière de sécurité. Mais ces engagements sont unilatéraux, non vérifiables de l'extérieur, et surtout révocables à tout moment selon les impératifs commerciaux.
Pourquoi l'intérêt privé ne peut pas remplacer l'intérêt général
Il ne s'agit pas de diaboliser les entreprises technologiques. Beaucoup d'entre elles emploient des chercheurs sincèrement préoccupés par la sécurité de l'IA. Le problème est systémique, pas individuel.
Une entreprise privée, par nature, répond à trois priorités :
- La rentabilité pour ses actionnaires
- La compétitivité face à ses concurrents
- La croissance de ses parts de marché
Ces objectifs ne sont pas mauvais en soi. Mais ils sont structurellement incompatibles avec une gouvernance de l'IA qui protégerait en priorité les plus vulnérables, préserverait la pluralité démocratique ou accepterait de ralentir l'innovation quand cela s'avère nécessaire. Confier les règles du jeu à des acteurs dont le modèle économique dépend de l'absence de règles contraignantes, c'est se condamner à une gouvernance au rabais.
Des exemples qui font réfléchir
Les preuves ne manquent pas. En 2023, le Conseil de sécurité de l'IA d'OpenAI — censé superviser les risques existentiels — a été dissous quelques mois après sa création, sans explication convaincante. La même année, plusieurs chercheurs en sécurité ont quitté des entreprises majeures en dénonçant des pressions pour accélérer les déploiements au détriment des tests de sécurité.
Plus révélateur encore : lors des négociations autour du règlement européen sur l'IA (AI Act), des lobbyistes mandatés par les grandes plateformes ont dépensé des dizaines de millions d'euros pour affaiblir les exigences sur les modèles de fondation. Certaines dispositions initialement prévues ont effectivement été allégées. Ce n'est pas une théorie du complot : c'est du lobbying documenté, légal, et efficace.
Quelles alternatives concrètes ?
La réponse ne consiste pas à exclure les entreprises des discussions — leur expertise technique est indispensable. Elle consiste à rééquilibrer les rapports de force dans les espaces de gouvernance.
Plusieurs pistes sont sérieusement explorées à l'échelle internationale :
- Des agences publiques indépendantes dotées de pouvoirs d'audit et de sanction réels, à l'image des autorités de régulation financière
- Des mécanismes de participation citoyenne intégrés aux processus de standardisation de l'IA
- Une transparence algorithmique obligatoire pour les systèmes à fort impact social
- Des traités internationaux contraignants, car l'IA ne s'arrête pas aux frontières nationales
Le modèle de l'Agence internationale de l'énergie atomique est souvent cité comme référence : imparfait, mais capable d'imposer des inspections indépendantes à des acteurs souverains. Pourquoi ce qui est possible pour le nucléaire ne le serait-il pas pour une technologie potentiellement aussi transformatrice ?
Une question de choix de société
La gouvernance de l'IA n'est pas un sujet réservé aux ingénieurs ou aux juristes spécialisés. C'est l'une des questions politiques les plus importantes de notre époque. Qui décide de ce que votre banque peut faire avec vos données ? Qui supervise les algorithmes qui filtrent votre accès au crédit ou à l'emploi ? Qui garantit que les systèmes d'IA militaires respectent le droit international ?
Ces questions ne peuvent pas avoir pour seule réponse la bonne volonté d'une poignée de PDG de la Silicon Valley, aussi brillants soient-ils.
L'IA sera ce que nous déciderons collectivement qu'elle soit. Mais encore faut-il que nous ayons réellement notre mot à dire. Reprendre le contrôle de la gouvernance de l'IA, c'est reprendre le contrôle de notre futur commun. Il est encore temps — mais l'horloge tourne.
— Reservoir Live