L'IA à l'Assemblée nationale — sans cadre légal

L'IA à l'Assemblée nationale — sans cadre légal

Quand l'intelligence artificielle entre au Parlement par la fenêtre

Des députés qui rédigent leurs amendements avec ChatGPT. Des collaborateurs parlementaires qui utilisent des outils d'IA pour synthétiser des milliers de pages de rapports en quelques secondes. Des discours en hémicycle potentiellement co-écrits par un algorithme. Ce n'est pas de la science-fiction : c'est la réalité silencieuse de l'Assemblée nationale française en 2024.

Pourtant, aucun texte de loi, aucun règlement intérieur, aucune circulaire officielle ne vient encadrer ces pratiques au sein même de l'institution qui est censée légiférer pour le reste du pays. Un paradoxe saisissant, presque vertigineux.

Qui est responsable lorsqu'un amendement généré par une IA contient une erreur juridique ? Que deviennent les données confidentielles transmises à ces plateformes ? Et surtout : comment légiférer intelligemment sur une technologie que l'on utilise soi-même sans garde-fous ?

Les réponses à ces questions dérangent. Elles révèlent une institution prise de vitesse par la transformation numérique, et les risques concrets qui en découlent pour notre démocratie.

Un vide juridique au cœur du pouvoir législatif

L'ironie est difficile à ignorer : l'Assemblée nationale travaille actuellement sur plusieurs propositions de loi relatives à la régulation de l'IA, pendant que ses propres membres l'utilisent dans un flou juridique total. Aucune charte interne, aucune politique de conformité au RGPD spécifique aux outils d'IA n'a été officiellement adoptée à ce jour.

Les risques concrets identifiés

  • Confidentialité des données : Des informations sensibles — arbitrages politiques, positions non publiques, données nominatives — sont potentiellement transmises à des serveurs étrangers via des plateformes comme OpenAI ou Google Gemini, sans évaluation des risques.
  • Responsabilité juridique floue : Si un amendement rédigé avec l'aide d'une IA contient une erreur ou une incohérence constitutionnelle, aucun cadre n'attribue clairement la responsabilité.
  • Biais algorithmiques dans la loi : Les modèles de langage reproduisent des biais présents dans leurs données d'entraînement. Ces biais peuvent s'infiltrer subtilement dans la rédaction législative sans que personne ne le détecte.
  • Inégalité entre élus : Les députés les mieux dotés en ressources humaines et numériques tirent un avantage disproportionné de ces outils, creusant les inégalités au sein même de l'hémicycle.

Ce que d'autres institutions ont déjà fait

Le Parlement européen a adopté dès 2023 une politique interne d'utilisation de l'IA, exigeant transparence et évaluation des risques pour chaque outil déployé. Au Royaume-Uni, le Government Digital Service a publié des lignes directrices claires pour les fonctionnaires utilisant des outils génératifs. La France accuse un retard institutionnel préoccupant.

Trois actions prioritaires à engager maintenant

  • Adopter une charte interne d'usage de l'IA à l'Assemblée, co-construite avec la CNIL et des experts en cybersécurité, avant la fin de la session parlementaire.
  • Exiger la souveraineté des données : Privilégier des outils hébergés sur des serveurs européens, idéalement dans le cadre du cloud souverain français.
  • Former les députés et leurs collaborateurs aux limites réelles de l'IA générative — hallucinations, biais, opacité — pour un usage éclairé et non naïf.

L'enjeu dépasse la simple question technique. C'est la légitimité démocratique du travail législatif qui est en jeu. Une loi partiellement écrite par un algorithme non auditable, dans un cadre sans transparence, pose une question fondamentale : qui gouverne vraiment ?


@ReservoirLive

S'abonner à Reservoir Live

Ne manquez aucune édition. Inscrivez-vous pour accéder à l'ensemble des éditions réservées aux abonnés.
jean.martin@exemple.com
S'abonner