Sans gouvernance, l’intelligence artificielle menace la confiance

Sans gouvernance, l’intelligence artificielle menace la confiance

Suvianna Grecu : Sans règles, l’IA risque une crise de confiance

L’intelligence artificielle face à une crise de confiance, alerte Suvianna Grecu

Le monde est lancé dans une véritable course au déploiement de l’intelligence artificielle (IA). Pourtant, Suvianna Grecu, fondatrice de l’AI for Change Foundation, met en garde : privilégier la vitesse au détriment de la sécurité risque d'entraîner une grave « crise de confiance ».

Selon elle, sans une gouvernance rigoureuse et immédiate, l’IA risque de causer des dégâts à grande échelle, en automatisant des préjudices de manière incontrôlée.

Suvianna Grecu, fondatrice de l'AI for Change Foundation

Grecu estime que le danger principal de l’IA ne réside pas dans la technologie elle-même, mais dans l’absence de cadres éthiques solides encadrant son déploiement, notamment dans des secteurs aussi critiques que l’emploi, la santé, la justice ou les finances.

Des systèmes puissants prennent aujourd’hui des décisions aux conséquences majeures sans évaluation suffisante des biais ou de leur impact sur la société. L’éthique de l’IA reste trop souvent un ensemble de principes généraux, sans application concrète dans les processus quotidiens.

Intégrer l’éthique à chaque étape du développement

Pour Grecu, la véritable responsabilité commence quand une personne ou une structure est clairement identifiée comme garante des résultats. L’écart entre les intentions éthiques et leur mise en œuvre représente, selon elle, le risque le plus critique.

Son approche préconise une traduction opérationnelle de l’éthique dans les workflows technologiques grâce à :

  • Des checklists éthiques intégrées à la phase de conception,
  • Des évaluations de risques obligatoires avant le déploiement,
  • Des comités de relecture multidisciplinaires réunissant juristes, ingénieurs et décideurs politiques.

Il s'agit ainsi d’institutionnaliser l’éthique avec des processus transparents et reproductibles, tout comme pour les fonctions clés de l’entreprise. L’objectif : faire de l’éthique un ensemble d’actions concrètes, pas uniquement un débat philosophique.

Construire la confiance par la coopération

En matière de régulation, Grecu insiste : la responsabilité ne peut reposer uniquement sur les gouvernements ou l’industrie. « Ce n’est pas l’un ou l’autre, c’est les deux », affirme-t-elle.

Dans ce modèle collaboratif, les gouvernements doivent fixer des normes minimales et veiller au respect des droits fondamentaux. Mais les entreprises, plus agiles, possèdent l’expertise technique pour aller au-delà de la conformité et développer :

  • Des outils avancés d’audit algorithmique,
  • De nouvelles formes de protection des utilisateurs,
  • Une innovation encadrée par la responsabilité.

Confier toute la gouvernance à l’État pourrait freiner l’innovation, mais la confier exclusivement au secteur privé ouvrirait la voie aux abus. Seule une gouvernance partagée est durable, conclut-elle.

Pour une IA fondée sur les valeurs humaines

Grecu alerte également sur les dangers plus subtils, moins médiatisés, mais cruciaux à long terme : la manipulation émotionnelle par l'IA et l’absence de repères moraux dans les systèmes algorithmiques.

« La technologie n’est jamais neutre, prévient-elle. Elle reflète les données que nous lui donnons, les objectifs que nous fixons, et les résultats que nous favorisons. »

En l'absence d’un cadrage éthique volontaire, l’intelligence artificielle optimisera naturellement pour la rapidité, le volume ou le profit, laissant de côté des valeurs comme la justice, la dignité ou la démocratie. Cela fragilise la confiance du public.

Grecu juge que l’Europe a ici un rôle stratégique à jouer : « Si nous voulons que l’IA serve l’humain avant le marché, il faut protéger et intégrer les valeurs européennes telles que les droits de l’homme, la transparence, la durabilité, l’équité et l’inclusion à tous les niveaux : législatif, technique et opérationnel. »

Sensibiliser et agir pour un futur technologique éthique

Ce n’est pas un appel à freiner la technologie. C’est une invitation à reprendre le contrôle et à participer activement à son orientation, avant qu’elle ne nous redéfinisse.

À travers l’AI for Change Foundation, des ateliers publics et des événements spécialisés tels que l’AI & Big Data Expo Europe – où Grecu interviendra en tant que présidente de séance – elle construit une alliance pour faire de l’humain un pilier central du développement technologique.

(Photo : Cash Macanaya)

Découvrez d'autres événements sur l’IA

Vous souhaitez approfondir vos connaissances sur l’intelligence artificielle et les mégadonnées ? Participez à l’AI & Big Data Expo qui se tiendra à Amsterdam, en Californie et à Londres. L’événement est organisé en parallèle avec :

Explorez davantage d’événements professionnels autour de la tech sur TechForge.

@ReservoirLive