Aller au contenu principal Skip to page footer

Meta a permis à ses chatbots d'avoir des conversations "sensuelles" avec des enfants

Une enquête de Reuters révèle un document interne de Meta à propos de son IA générative, qui donne froid dans le dos : censé protéger, il révèle au contraire les failles d’un encadrement qui laisse entrevoir des dérives inquiétantes. Entre dialogues sensibles avec des mineurs, diffusion d’informations médicales erronées et biais discriminatoires, la ligne de crête entre innovation et responsabilité devient plus étroite que jamais.

 

Des règles conçues pour encadrer, mais qui fissurent la confiance

Le guide interne de Meta, intitulé « GenAI: Content Risk Standards », devait servir de socle pour garantir un usage responsable de ses outils d’intelligence artificielle. Sur plus de deux cents pages, il fixe des balises destinées à éviter les dérives des chatbots, en particulier sur Facebook, Instagram ou WhatsApp. L’objectif affiché était clair : instaurer un cadre de conformité conciliant innovation et sécurité.

Pourtant, ce document révèle des directives autorisant des conversations romantiques ou sensuelles avec des mineurs, une orientation incompatible avec l’exigence de protection des enfants. Si l’intention de Meta était d’explorer les limites de l’interaction homme-machine, le résultat met en lumière une gestion discutable du risque réputationnel et juridique.

À cela s’ajoute l’autorisation implicite pour l’IA de fournir des réponses médicales inexactes, parfois accompagnées de mentions explicatives insuffisantes. Dans un contexte où l’information fiable est essentielle, ces failles soulèvent des inquiétudes quant à la responsabilité de la plateforme en cas de préjudice causé aux utilisateurs.

Ces révélations ne surviennent pas dans un vide juridique. Meta fait déjà face à plusieurs actions en justice : en France, attaquée par les syndicats d’éditeurs pour violation du droit d’auteur autour de l’apprentissage automatique de ses IA ; au Canada, où l’auteur J.B. MacKinnon accuse Meta d’avoir entrainé son IA sur des œuvres protégées ; et aux États-Unis, où le spectre du fair use commence à prendre de l’ampleur. Ces contentieux démontrent que la firme est déjà sous le feu des critiques. 

Nous ne le rappellerons jamais assez : Méfiez-vous des résultats générés par les IA 

Quand les biais deviennent des risques juridiques

Le document interne a aussi révélé des passages autorisant la possibilité pour l’IA de relayer des propos à caractère raciste, tels que l’idée selon laquelle certaines populations seraient « moins intelligentes ». Même si Meta a reconnu que ces extraits étaient des erreurs et a annoncé les avoir corrigées, leur existence montre combien la lutte contre les biais algorithmiques reste fragile. Dans ce contexte, l’existence d’un document interne tolérant des dialogues sensibles avec des mineurs, des conseils médicaux douteux ou des biais discriminatoires ne peut qu’amplifier la pression judiciaire et politique sur l’entreprise.

En autorisant – même partiellement – la diffusion de contenus discriminatoires, Meta s’expose à des risques de contentieux pour atteinte à la dignité et à la non-discrimination. De surcroît, la ligne de défense de Meta – admettre des incohérences et retirer certains passages – illustre une approche réactive plutôt que proactive. Or, les utilisateurs et les régulateurs attendent des garanties préventives pour éviter la propagation de contenus nuisibles, ce qui pose la question de la gouvernance éthique de l’IA.

Vers un encadrement sous pression politique et judiciaire

La révélation de Reuters a déclenché une vague d’indignation, allant jusqu’à provoquer l’ouverture d’une enquête parlementaire aux États-Unis. Le sénateur Josh Hawley a demandé des explications détaillées, preuve que l’affaire dépasse désormais le strict cadre interne de Meta pour toucher à la sphère publique et institutionnelle.

La question centrale devient alors celle de la responsabilité juridique en cas de dommage. Si un utilisateur est induit en erreur par un conseil médical erroné ou victime d’un contenu discriminatoire produit par un chatbot, qui devra répondre devant les tribunaux ? L’entreprise qui conçoit l’IA ? Celle qui l’exploite ? Ou les deux ? Ces interrogations annoncent de futurs litiges à fort impact, tant sur le plan financier que réputationnel.

Data Ring à la rescousse : expertise pour restaurer la confiance

L’association Data Ring — fondée en 2017, reconnue d’intérêt général, et basée à Toulouse — se positionne comme un acteur essentiel pour promouvoir l’éthique, la transparence et la responsabilité dans le domaine de l’IA et des données. Ce collectif pluridisciplinaire réunit avocats, ingénieurs, universitaires et experts en cybersécurité, droits numériques et libertés fondamentales.

Data Ring intervient via divers canaux : organisation de colloques, diffusion de podcasts (Les Causeries Data), élaboration de guides, référentiels et livres blancs, sans oublier la saisie du Conseil d’État pour défendre vos droits. Chaque initiative vise à éclairer les citoyens, les professionnels et les décideurs dans un écosystème numérique souvent opaque.

À travers ces engagements, l’association assume un rôle de tiers de confiance : critique constructive, force de proposition et vigie citoyenne. Dans le contexte de la controverse autour des directives internes de Meta, Data Ring incarne cette réponse sociétale et légale qui manque trop souvent lorsqu’un acteur privé peine à garantir un encadrement autonome et transparent.

Contactez-nous si vous souhaitez en savoir plus sur Data Ring ou leur rôle dans la gouvernance éthique de l’IA.

Être citoyen de ses données : un enjeu citoyen et éthique
 

Data Ring, c'est également :

  • Notre Guide des Réseaux sociaux à destination des familles : aidez-nous à toucher le plus grand nombre et à déployer son impact auprès des enfants et de leurs parents !

Consultez des extraits ici et pour le commander : https://www.data-ring.net/contact

  • Les Causeries DATA : découvrez nos podcasts, mettant en scène des invités de marque, autour de sujets aussi essentiels que passionnants :

Avec Yann FERGUSON, sur le futur du travail au prisme de l’Intelligence artificielle : https://podcast.ausha.co/les-causeries-data/22-l-intelligence-artificielle-les-enjeux-sur-le-monde-du-travail

Avec Antonio CASSILI, sur les travailleurs invisibles du numérique et de l’IA : https://podcast.ausha.co/les-causeries-data/24-les-nouveaux-tacherons-du-clic
 

  • Notre Lab’IA : Nous participons à vos comités IA et proposons des sensibilisations sur mesure .

Nous souhaitons engager une réflexion sur les systèmes d’intelligence artificielle, qui ont profondément modifié notre manière de travailler et de vivre, ainsi que notre rapport au réel.

Vous pouvez contribuer à notre engagement collectif, pour déployer des usages raisonnés et éthiques de l’IA, prévenir les risques qu’elle représente, tout en exploitant au maximum les opportunités et bénéfice qu’elle procure !!

  • Le Prix de la Donnée : soutenez les étudiants et contribuez à la promotion de la recherche en droit ! Après le succès du Prix spécial 2024, dédié aux meilleurs travaux de recherches sur l’Intelligence Artificielle, 2025 mettra à l’honneur le secteur de l’aérospatial.

Vous pouvez également nous soutenir à votre convenance en faisant un don libre : https://www.helloasso.com/associations/dataring