Justice citoyenne et IA : quand YouTube défie les institutions

Justice citoyenne et IA : quand YouTube défie les institutions

Quand le citoyen lambda devient l'enquêteur que les institutions ne sont plus

Une caméra de smartphone, un logiciel de reconnaissance faciale accessible en ligne, et des millions de vues. Ce scénario, qui semblait relever de la fiction il y a dix ans, est devenu une réalité troublante et fascinante. Des youtubeurs du monde entier utilisent désormais les outils de l'intelligence artificielle pour résoudre des affaires que la police a classées, démasquer des arnaques que les tribunaux n'ont pas sanctionnées, ou encore retrouver des personnes disparues. Bienvenue dans l'ère de la justice citoyenne augmentée.

Le contexte : une défiance institutionnelle qui ouvre un vide

Pour comprendre ce phénomène, il faut d'abord regarder le terreau dans lequel il prospère. Dans de nombreux pays occidentaux, la confiance envers les institutions judiciaires et policières s'érode. Délais de traitement des plaintes interminables, manque de moyens humains, affaires classées sans suite faute de preuves suffisantes : le système montre ses limites de façon de plus en plus visible.

C'est dans ce vide que s'engouffrent des créateurs de contenu armés de détermination, de temps et d'outils numériques de pointe. Ils ne se contentent plus de commenter l'actualité : ils la fabriquent. Ils enquêtent, recoupent, publient. Et leur audience — parfois plusieurs millions d'abonnés — devient une force de pression sociale inédite.

L'IA, le grand accélérateur de l'enquête citoyenne

Ce qui change fondamentalement la donne aujourd'hui, c'est l'accès démocratisé aux technologies d'intelligence artificielle. Des outils autrefois réservés aux agences gouvernementales ou aux grandes entreprises sont désormais disponibles à tous, souvent gratuitement ou à faible coût.

Les outils concrets utilisés par ces nouveaux enquêteurs

  • La reconnaissance faciale : des plateformes comme PimEyes permettent de retrouver une personne à partir d'une simple photo, avec une précision déconcertante.
  • L'analyse de géolocalisation : des techniques d'OSINT (Open Source Intelligence) couplées à l'IA permettent de situer une vidéo ou une photo avec une précision métrique.
  • La détection de deepfakes : des modèles spécialisés analysent des vidéos suspectes pour en démontrer la falsification.
  • Le croisement de données publiques : registres d'entreprises, réseaux sociaux, bases de données foncières — l'IA agrège ce que l'humain mettrait des semaines à compiler.

Des exemples qui font réfléchir

Aux États-Unis, la chaîne People & Power ou encore des comptes comme Internet Sherlocks ont contribué à identifier des suspects dans des affaires criminelles avant même la publication de communiqués officiels. En France, des youtubeuses spécialisées dans les arnaques sentimentales ont exposé des réseaux de fraude opérant depuis l'Afrique de l'Ouest, provoquant des interpellations que les services officiels n'avaient pas initiées.

Plus spectaculaire encore : lors de l'affaire Gabby Petito aux États-Unis en 2021, des millions d'internautes ont collaboré en temps réel, utilisant des outils d'analyse d'image et de géolocalisation pour localiser la victime, devançant parfois les enquêteurs officiels. Un cas d'école qui a mis en lumière la puissance — et les dangers — de cette forme de justice participative.

Les implications éthiques et juridiques : un terrain miné

Ce phénomène soulève des questions profondes auxquelles nos sociétés n'ont pas encore apporté de réponses satisfaisantes.

Les dérives potentielles sont réelles

L'histoire des erreurs judiciaires citoyennes est déjà longue. Après l'attentat du marathon de Boston en 2013, des internautes ont faussement accusé plusieurs innocents, détruisant temporairement leur réputation. La rapidité de diffusion de l'IA amplifie exponentiellement ce risque. Une reconnaissance faciale approximative transformée en certitude virale peut ruiner une vie en quelques heures.

Par ailleurs, ces pratiques soulèvent des questions juridiques non résolues : collecte de données personnelles sans consentement, violation de la présomption d'innocence, atteinte à la vie privée. Dans de nombreux cas, les preuves recueillies par ces méthodes seraient irrecevables devant un tribunal.

Mais aussi une pression salutaire sur les institutions

Il serait néanmoins réducteur de ne voir dans ce mouvement qu'une menace. Ces enquêteurs du web ont parfois forcé des institutions à se saisir d'affaires oubliées, mis en lumière des dysfonctionnements systémiques, et redonné une voix à des victimes ignorées. Ils jouent un rôle de vigie que la presse traditionnelle, sous contrainte économique, peine parfois à assurer.

Vers un nouveau contrat entre citoyens, technologies et justice

La question n'est plus de savoir si ce phénomène existe — il est là, massif, global, en croissance. La vraie question est : comment le civiliser sans l'étouffer ?

Des pistes émergent : encadrement légal des outils d'OSINT, formation des youtubeuse-enquêteurs aux standards journalistiques, création de passerelles officielles entre enquêtes citoyennes et institutions judiciaires. Certains pays commencent à expérimenter des unités de police spécialisées dans la collaboration avec les communautés d'enquêteurs en ligne.

L'intelligence artificielle ne fera qu'accélérer cette tendance. La vraie intelligence, collective et critique, sera celle qui saura en encadrer les usages avant que les dérives ne l'emportent sur les bénéfices. La justice citoyenne à l'ère de l'IA n'est pas une menace ou une solution — c'est un miroir tendu à nos institutions. À elles de décider ce qu'elles y voient.


Reservoir Live

S'abonner à Reservoir Live

Ne manquez aucune édition. Inscrivez-vous pour accéder à l'ensemble des éditions réservées aux abonnés.
jean.martin@exemple.com
S'abonner