Skip to main content Skip to page footer

Les réseaux sociaux au prisme de la santé publique : quand le droit rejoint la science

Analyse croisée du rapport de l’A.N.S.E.S et des récents jalons législatifs français

Les réseaux sociaux numériques structurent désormais en profondeur la vie des adolescents : relations sociales, accès à l’information, construction de l’image de soi, engagement citoyen… Cette omniprésence n’est plus discutée.

En revanche, les effets des réseaux sur la santé mentale et le bien-être des mineurs font aujourd’hui l’objet d’un consensus scientifique croissant et inédit, appelant une réponse juridique à la hauteur.

Publié le 16 décembre 2025, l’avis de l’A.N.S.E.S (Agence Nationale de Sécurité Sanitaire de l’Alimentation, de l’Environnement et du Travail) relatif aux effets de l’usage des réseaux sociaux numériques sur la santé des adolescents (auto-saisine n° 2019-SA-0152) constitue une étape décisive. L’Agence y rappelle sa mission légale d’appui à l’action publique en matière de protection de la santé (article L.1313-1 du Code de la santé publique) et met en évidence des risques sanitaires objectivés, justifiant une régulation structurelle des plateformes.

DATA RING propose une lecture croisée de ce rapport avec les évolutions récentes du droit français et européen.

Une notion juridique des réseaux sociaux encore en construction

L’A.N.S.E.S souligne d’emblée l’absence de définition scientifique unifiée des réseaux sociaux, principalement en raison du caractère « particulièrement évolutif et hétérogène » de ces technologies (3.2. Définitions, principes de fonctionnement d’un réseau social numérique). Cette indétermination se retrouve en droit, où la définition tend à devenir fonctionnelle et large pour englober un périmètre d'objets numériques dont le contour s'avère « particulièrement mouvant » (3.2. Définitions, principes de fonctionnement d’un réseau social numérique).

En droit interne, la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique définit les réseaux sociaux comme : « Toute plateforme permettant aux utilisateurs finaux de se connecter et de communiquer entre eux, de partager des contenus et de découvrir d’autres utilisateurs et d’autres contenus, sur plusieurs appareils, en particulier au moyen de conversations en ligne, de publications, de vidéos et de recommandations »

Le Conseil d’État, dans son Étude annuelle 2022 — Réseaux sociaux : enjeux et opportunités pour la puissance publique, retenait déjà cette approche en les décrivant comme un service de communication en ligne reposant sur la création d’un profil numérique, la connexion entre internautes et l’échange de contenus préexistants ou créés par l’utilisateur.

Cette évolution marque une rupture : le droit ne cherche plus à figer une catégorie technique, mais à appréhender les services selon leurs effets sociaux, sanitaires et démocratiques (3.5.4. Enjeux éthiques et démocratiques). Cette approche est consacrée au niveau européen par le Règlement sur les services numériques (Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE), applicable depuis février 2024.

Le D.S.A impose désormais aux très grandes plateformes :

Une analyse rigoureuse des risques systémiques que leur conception (algorithmes, interfaces) fait peser sur le bien-être physique et mental des mineurs,

Une obligation de "Safety by Design", contraignant les opérateurs à mettre en œuvre des mesures de protection de la vie privée et de sécurité adaptées à la vulnérabilité des adolescents.

Modèle économique des plateformes et exigence de protection de la santé des jeunes 

Le rapport de l'A.N.S.E.S met en lumière un constat technique aux conséquences juridiques majeures : en effet, les entreprises propriétaires des réseaux sociaux numériques (RSN) sont les seules capables de modifier directement les fonctionnalités de leurs services. Pourtant, elles continuent d’utiliser volontairement des mécanismes de « captation de l'attention » pour maximiser l'engagement des utilisateurs, dont la restriction reviendrait à limiter ces mécanismes – ce qui entre souvent en conflit direct avec la protection de :

  • La liberté d’entreprendre, protégée notamment au niveau constitutionnel par l’article 4 de la DDHC, et par le décret d’Allarde 1791 et la Loi Le Chapelier de 1791).
  • La protection de la santé, objectif de valeur constitutionnelle reconnu par le Conseil constitutionnel (décisions n° 90-283 DC, 8 janvier 1991 ; n° 2015-727 DC, 21 janvier 2016).

Le point de vue de l'A.N.S.E.S : Face à ce conflit, l'expertise considère qu'il revient aux pouvoirs publics d'imposer des limites aux modèles économiques qui exploitent la vulnérabilité des adolescents (comme la recherche de sensations ou le besoin d'appartenance) pour générer du profit.

Focus : Le « Safety By Design » succède-t-il à l’obligation de sécurité ?

Pour rappel, le « Safety By Design » désigne une approche de conception consistant à intégrer la sécurité dès l’origine d’un produit, d’un système ou d’un service, et non comme un correctif postérieur (prévention !).

En droit civil, la responsabilité d'un acteur économique peut être engagée si le fonctionnement de son service crée un risque pour autrui (principe de la responsabilité du fait des choses ou responsabilité pour risque – Article L. 1242-1 Code civil).

L'analogie juridique : Tout comme la jurisprudence a reconnu qu'un professionnel peut être responsable des dommages causés par l'organisation de son service (Cass. civ. 1re, 9 nov. 1999, Hédreul), le droit du numérique évolue vers une obligation de sécurité dès la conception.

Le concept de "Safety by Design" : Ce principe, soutenu par l'A.N.S.E.S, exige que les plateformes intègrent la sécurité des mineurs dès la phase de création technique de l'application.

Exemple pédagogique : Ce n'est plus à l'utilisateur de faire attention, c'est à l'outil d'être inoffensif par défaut (ex: suppression du défilement infini ou des notifications intrusives pour les mineurs).

La logique de « prévention » : inspirée du droit du travail et du droit de l’environnement

L'A.N.S.E.S. effectue un rapprochement de cette régulation numérique aux logiques de prévention déjà bien connues dans d'autres branches du droit :

  • En droit du travail : L'employeur a une obligation de sécurité de résultat. Il doit adapter le travail à l'homme pour éviter l'épuisement ou les accidents

(Cass. Soc., 25 novembre 2015, n° 14-24444 - Cass. Soc., 16 octobre 2024 n° 23-16.411 - Article L.4121-1 du Code du travail).

  • En droit de l'environnement : Le principe de prévention impose de limiter les risques à la source avant qu'un dommage ne survienne.

(Charte de l’environnement, article 3 - Code de l’environnement, article L.110-1 – CE, 1er juin 2015).

Le rapport préconise que les plateformes soient soumises à un cahier des charges technique strict. Elles doivent désormais réaliser des analyses de risques systémiques (prévues par les articles 34 et 35 du Règlement européen sur les services numériques - DSA) pour évaluer comment leurs algorithmes affectent le bien-être physique et mental des mineurs… afin de mieux les prévenir !

Interfaces trompeuses et régulation algorithmique : des confusions à identifier

Le rapport de l’Anses identifie un responsable majeur dans la perte de contrôle des adolescents sur leur temps d'écran : les interfaces persuasives, aussi appelées « dark patterns » (designs trompeurs).

Les plateformes ne sont pas neutres. Elles conçoivent des algorithmes et des interfaces pour exploiter la psychologie humaine (besoin de récompense, peur de manquer une information) afin de maximiser le profit en captant l'attention le plus longtemps possible :

Le « défilement infini » (infinite scroll) empêche l'utilisateur de s'arrêter naturellement, provoquant une véritable perte de maîtrise de l'usage

L'effet « silo » : Les algorithmes enferment l'adolescent dans une spirale de contenus similaires, ce qui peut aggraver des troubles préexistants (idées suicidaires, troubles alimentaires)

Le cadre juridique : pour répondre à ces dérives, l'Union européenne a adopté le Digital Services Act (DSA), applicable depuis le 17 février 2024. Ce texte change les règles du jeu pour les « très grandes plateformes ».

  • Article 25 : Le DSA interdit désormais les techniques visant à influencer l'utilisateur de manière trompeuse. Le droit exige que le consentement de l'utilisateur soit libre et non manipulé par une présentation visuelle piégée.
  • Articles 34 et 35 : C'est l'avancée la plus forte. Les plateformes ne doivent plus seulement surveiller les contenus (vidéos, messages), elles doivent évaluer si leur système tout entier présente des risques pour la santé mentale, les droits de l’enfant, la sécurité publique.

Ce qu'il faut comprendre, c’est que si une plateforme remarque que son algorithme de recommandation pousse les jeunes filles vers des contenus de régimes extrêmes, elle a désormais l'obligation légale de modifier son algorithme pour « atténuer » ce risque.

Pendant longtemps, le droit s'est contenté de demander aux plateformes de supprimer les vidéos illégales après leur publication. Aujourd'hui, avec le DSA et l'appui de l'expertise de l'IRJS (Sorbonne), on assiste à une rupture (Safety By Design – gouvernance dans la santé publique).

La protection des mineurs comme priorité normative

Nécessité de réponses pénales face aux cyberviolences et atteintes à l’intimité : Le droit français et européen place désormais la protection des plus jeunes comme priorité, en passant d'une logique de simple contrôle à une obligation de sécurité par défaut.

L’effectivité des normes repose désormais sur les autorités compétentes. En France, l’A.R.C.O.M est désignée comme coordinateur des services numériques (article L.331-21 du Code des postes et des communications électroniques), en lien avec les signaleurs de confiance prévus par l’article 22 du DSA.

Surtout, l’article 40 du D.S.A instaure un droit d’accès des chercheurs agréés aux données des plateformes, afin d’évaluer les risques systémiques. Cette disposition répond directement aux limites méthodologiques soulignées par l’ANSES et conditionne l’émergence d’une régulation fondée sur des preuves scientifiques.

Le rapport de l’ANSES, combiné aux évolutions législatives françaises et européennes, révèle l’émergence progressive d’un droit public de la santé numérique, fondé sur de la prévention, mais aussi (et surtout) la responsabilité des plateformes.

Pour DATA RING, cet avis valide et confirme les axes d'intervention prioritaires :

1. Une prévention fondée sur l'éducation et l'autonomie

L'A.N.S.E.S insiste sur le fait que l'accompagnement ne doit pas être purement restrictif mais doit viser à développer l’autonomie cognitive et responsable des outils numériques.

Nos actions : En cohérence avec le rapport, nous privilégions la co-construction de repères de bonnes pratiques avec les adolescents et leurs parents, afin de favoriser une appropriation réelle des enjeux de santé mentale et d'hygiène numérique, en particulier sur les réseaux. Notre Guide « Réseaux Sociaux & Enfance »

permet d’appréhender ces enjeux de façon pédagogique et stimulante.

2. Un arsenal contre le cyberharcèlement et les cyberviolences

Le rapport documente la spirale de la cyber victimation et son impact majeur sur la détresse psychologique. L'A.N.S.E.S préconise de renforcer les campagnes de sensibilisation aux risques de « sextorsion », de « deepfakes » et aux enjeux du consentement.

Nos actions : Data Ring s'engage dans la lutte contre le harcèlement en sensibilisant les jeunes à la protection de leur intimité numérique et en promouvant des espaces de parole pour briser l'isolement des victimes. La prise de conscience de l’impact des données permet également de protéger les adolescents, en retrouvant une maîtrise des informations qu’ils communiquent sur internet.

3. Vers une citoyenneté numérique protégée par le « design »

L'expertise juridique de l'IRJS associée au rapport appelle à une évolution vers la « Safety by Design ». Il revient aux acteurs de la société civile de veiller à ce que les plateformes assument leur responsabilité dans la conception de leurs interfaces.

Nos actions : Nous militons pour un paramétrage protecteur par défaut et pour la fin des interfaces trompeuses (dark patterns) qui exploitent la vulnérabilité des mineurs pour capter leur attention au détriment de leur sommeil et de leur bien-être.

En somme, l'engagement de DATA RING répond à la nécessité d'une gouvernance numérique à la hauteur des enjeux de santé publique, où la protection de l'attention et de l'intégrité des mineurs devient la norme, et non plus l'exception.

Rejoindre DATA RING, c’est reprendre le contrôle sur votre citoyenneté numérique, comprendre les enjeux et décrypter les nouveaux codes du numérique (sans mauvais jeu de mots).

Enfants, ados, parents, professionnel, acteur de l’éducation, du numérique : la mise en place de communs est nécessaire pour avancer dans un monde ou l’accès à la compréhension numérique divise, alors nous vous attendons avec impatience.