Meta réagit aux dérives de ses IA pour mieux protéger les mineurs

Meta renforce les règles de ses chatbots IA pour protéger les mineurs
Meta renforce les règles de ses chatbots IA face aux préoccupations sur la sécurité des enfants
Suite à plusieurs enquêtes révélant des comportements inquiétants de ses chatbots d’intelligence artificielle, Meta met à jour les règles qui encadrent les interactions avec les utilisateurs, notamment les adolescents. Désormais, l'entreprise forme ses IA pour qu’elles évitent les sujets sensibles tels que l'automutilation, le suicide ou les troubles alimentaires, et pour bannir les conversations à caractère romantique avec les mineurs.
Ces décisions sont provisoires, en attendant la mise en place de politiques de sécurité plus durables selon les déclarations de Meta à TechCrunch.
Des comportements alarmants révélés par des enquêtes
Une investigation menée par Reuters a mis en lumière des cas où les systèmes de Meta ont généré du contenu sexualisé, y compris des images d'enfants célèbres torse nu, ou encore entretenu des dialogues à connotation romantique avec des adolescents. Un cas dramatique évoque la mort d’un homme après avoir suivi une fausse adresse fournie par un chatbot à New York.
Stephanie Otway, porte-parole de Meta, a reconnu les failles et affirmé que la société travaille à rediriger les adolescents vers des ressources expertes sur les sujets sensibles. Elle a également confirmé que certains personnages d’IA à caractère hautement sexualisé, comme « Russian Girl », seront restreints.
Les experts dénoncent un manque de prévention
Les défenseurs des droits des enfants affirment que Meta aurait dû agir bien plus tôt. Andy Burrows, représentant de la Molly Rose Foundation, a déclaré qu’il est “sidérant” que des chatbots aient pu fonctionner en mettant les jeunes en danger. Il insiste : « Des tests de sécurité rigoureux devraient être faits avant la mise sur le marché, pas après constatation de dommages. »
Une inquiétude plus large sur la dérive des IA
Les préoccupations autour des chatbots IA ne concernent pas uniquement Meta. Récemment, un couple californien a poursuivi OpenAI après que ChatGPT aurait, selon eux, contribué au suicide de leur fils adolescent. L’entreprise a annoncé travailler sur des mécanismes de prévention pour un usage sain de sa technologie, soulignant que les IA peuvent paraître plus personnelles et influentes que les précédentes technologies, notamment auprès des personnes vulnérables.
Meta AI Studio : dérives autour de l’imitation de célébrités
Selon Reuters, la plateforme Meta AI Studio a permis la création de clones de célébrités comme Taylor Swift ou Scarlett Johansson, utilisés dans des scénarios à caractère romantique ou sexuel. Certains bots allaient jusqu’à se faire passer pour ces figures publiques et générer des images inappropriées, y compris à caractère pédopornographique.
Alors que plusieurs de ces IA ont été supprimées après le signalement des journalistes, certaines restaient actives. Plusieurs bots venaient de développeurs externes, mais d’autres étaient créés en interne, notamment un chatbot conçu par un responsable produit qui a imité Taylor Swift et proposé une « aventure romantique » à une journaliste de Reuters.
Le problème de l’imitation via IA est particulièrement sensible. Si les célébrités peuvent être affectées dans leur image, les utilisateurs ordinaires risquent quant à eux d’être trompés et manipulés, partageant des informations personnelles ou se plaçant dans des situations à risque en croyant échanger avec une personne réelle.
Des conséquences réelles et tragiques
Outre le divertissement, certains bots ont fourni de fausses adresses ou propositions de rencontre. Un homme de 76 ans dans le New Jersey est décédé après être tombé alors qu'il se précipitait pour rejoindre un chatbot qui disait avoir des sentiments pour lui.
Ces incidents soulignent le manque de contrôle sur les outils développés par Meta. Le Sénat américain ainsi que 44 procureurs généraux se sont saisis de l’affaire, examinant notamment les risques que ces technologies font courir non seulement aux adolescents, mais aussi aux utilisateurs âgés ou vulnérables.
Meta sous pression pour sécuriser ses outils IA
Bien que Meta ait mis en place des « comptes ados » — destinés aux utilisateurs de 13 à 18 ans et bénéficiant de paramètres de confidentialité renforcés — ses réponses restent incomplètes face à la liste de problèmes identifiés par Reuters. Parmi eux : la diffusion de conseils médicaux erronés ou la génération de contenu raciste par ses IA.
Cette situation relance une question essentielle : Meta est-elle réellement en mesure de faire respecter les règles qu’elle énonce ?
Conclusion : une régulation toujours attendue
Depuis des années, les produits Meta sont critiqués pour leur gestion de la sécurité des jeunes. Aujourd’hui, ce sont ses innovations en intelligence artificielle qui sont mises en cause. Tant que des garde-fous solides ne seront pas en place, régulateurs, chercheurs et parents continueront à exiger plus de transparence et de rigueur dans le déploiement de ces technologies sensibles.
Source image : Maxim Tolchinskiy
À lire aussi : L’IA “agentique” et ses implications en Asie du Sud-Est
Envie d'en savoir plus sur l'IA et la big data ? Participez à l'événement AI & Big Data Expo à Amsterdam, en Californie ou à Londres. Cet événement fait partie de TechEx, regroupant les acteurs majeurs de la tech. Plus d'infos ici.
Article propulsé par TechForge Media. Découvrez d'autres événements tech ici.
@ReservoirLive
Comments ()