TIKTOK ET LES MINEURS : ENTRE RISQUE D’ADDICTION ET RESPONSABILITÉS DES PLATEFORMES, S. Cohen
Soukaina COHEN
Doctorante en droit privé (cotutelle USMBA de Fès et Université de Haut-Alsace de Mulhouse)
Membre du CERDACC (UR 3992)
Cet article propose une lecture juridique du Rapport n° 1770 de la Commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok sur les mineurs (4 septembre 2025), à la lumière du droit français et européen de la responsabilité des plateformes.
L’audition fleuve conduite par la commission d’enquête de l’Assemblée nationale sur les effets psychologiques de TikTok illustre la capacité du Parlement français à s’emparer des enjeux contemporains liés aux réseaux sociaux. En mobilisant pleinement sa fonction de contrôle, la représentation nationale a mis en lumière le modèle économique d’une plateforme centrée sur la captation de l’attention, articulé autour d’un design algorithmique propice à l’addiction et à l’exposition des mineurs à des contenus préjudiciables, sur fond de modération défaillante des constats systématiquement contestés par l’entreprise (Rapport n° 1770, Assemblée nationale, Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs, T. I, 4 sept. 2025, p. 33-35 https://www.assemblee-nationale.fr/dyn/17/rapports/cetiktok/l17b1770-ti_rapport-enquete.pdf).
À rebours de sa devise officielle : « Inspirer la créativité et apporter de la joie », TikTok révèle, comme d’autres réseaux sociaux, sa capacité à produire des effets délétères sur la santé mentale et physique des jeunes, particulièrement les mineurs. Derrière l’apparente légèreté d’une interface conçue pour divertir se déploie une mécanique algorithmique puissante, qui enferme les utilisateurs les plus jeunes dans des bulles informationnelles hermétiques au regard des adultes. Cette dynamique favorise l’émergence et l’aggravation de troubles graves (dépressions, troubles alimentaires, comportements suicidaires), comme en témoignent les récits de nombreuses familles réunies au sein du collectif Algos Victima (Rapport n° 1770, préc., p. 15).
Conscient de l’impact structurel de ces plateformes dans la fabrique de « l’air du temps », le Parlement français a souhaité, à travers cette commission d’enquête, établir un diagnostic partagé. « Le modèle économique des grandes plateformes repose sur une logique financière qui les incite à exposer les mineurs à des mécanismes algorithmiques addictifs et à une modération lacunaire, tout en niant publiquement ces effets » (Rapport n° 1770, préc., p. 19).
Ces constats soulèvent une interrogation centrale : dans quelle mesure le cadre juridique français et européen est-il en mesure d’appréhender et de réguler un risque algorithmique désormais qualifié de systémique, particulièrement lorsqu’il affecte des publics vulnérables comme les mineurs ?
Comprendre la nature précise de ce risque est une étape préalable indispensable pour en saisir la portée juridique et identifier les régimes de responsabilité applicables. Pour y répondre, il convient d’abord d’analyser la spécificité du risque d’addiction algorithmique propre à TikTok et ses incidences sur la santé et la protection des mineurs (I), avant d’examiner la responsabilité juridique de la plateforme face à ce risque systémique à la lumière des régimes applicables et de leurs limites (II).
I.- TikTok et le risque d’addiction algorithmique chez les mineurs
« L’analyse des mécanismes internes de TikTok révèle un risque d’addiction algorithmique spécifique, qui excède le simple « usage excessif » et tient à la conception même de la plateforme. Le défilement infini de vidéos très courtes, combiné à une logique de recommandation qui impose directement du contenu à l’utilisateur sans choix préalable, accentue la perte de repères temporels et expose les adolescents à un flux continu de messages intenses, favorisant la captation prolongée de l’attention » (Rapport n° 1770, Assemblée nationale, Commission d’enquête sur les effets psychologiques de TikTok sur les mineurs, T. I, p. 37). TikTok exploite à cette fin une série de micro-signaux comportementaux (temps d’arrêt, relectures, interactions implicites), qui permettent à son algorithme d’adapter en temps réel les contenus proposés et d’en renforcer le pouvoir de captation d’attention de ses utilisateurs, notamment les mineurs (ibid.).
Cette architecture algorithmique cible particulièrement les fragilités psychologiques des mineurs et augmente la probabilité d’exposition à des contenus dangereux (dépression, suicide, automutilation, troubles alimentaires…). L’étude du Center for Countering Digital Hate relève que des comptes adolescents reçoivent des vidéos sur le suicide dès 2,6 minutes en moyenne, et sur les troubles alimentaires à 8 minutes, avec une surexposition jusqu’à douze fois supérieure à celle des comptes standards (Center for Countering Digital Hate, « Deadly by design », déc. 2022, https://www.counterhate.com/research/deadly-by-design). Des simulations d’Amnesty International confirment cette dynamique en observant l’ennoiement du fil « Pour toi » par des contenus banalisant la dépression en trois à vingt minutes (Rapport n° 1770, T. I, p. 37-39).
Sur le plan économique, la plateforme s’inscrit dans une véritable “économie de l’attention” : publicité ciblée, dispositifs de monétisation (achats intégrés, live matches) et systèmes de gratification sociale incitent les utilisateurs, y compris des mineurs contournant les restrictions d’âge, à prolonger leur présence en ligne, tandis que TikTok perçoit une part substantielle des dons effectués lors des diffusions en direct (Rapport n° 1770, T. I, p. 40). Ce modèle engendre un désalignement structurel entre la protection des mineurs et la logique de profit fondée sur la rétention maximale de l’attention.
Le rapport parlementaire dresse également un panorama préoccupant des contenus nocifs : « glorification du suicide et de l’automutilation (y compris sous forme de tutoriels), désinformation médicale, troubles alimentaires, racisme, violences, harcèlement ou encore exposition à des atteintes aux mineurs. Ces contenus prospèrent car la viralité et la volumétrie sont amplifiées par la recommandation algorithmique, qui privilégie les messages clivants et émotionnellement intenses » (Rapport n° 1770, T. I, p. 70-75). L’environnement cognitif ainsi créé renforce la suggestion et l’emprise psychologique sur des publics en phase de construction identitaire.
« Le phénomène de viralité s’illustre notamment par la circulation de « challenges » à risques (ingestion médicamenteuse, exposition des parties intimes), tirant parti de la brièveté des vidéos et de l’impulsivité propre aux jeunes publics » (ibid.). Ce risque est amplifié par l’essor de l’IA générative, qui facilite la création rapide de contenus nocifs (deepfakes, discours haineux, manipulation). Le rapport souligne « la nécessité d’un renforcement immédiat de la modération, en lien avec le règlement (UE) 2024/1689 sur l’intelligence artificielle » (Règl. (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle, dit « règlement sur l’intelligence artificielle » ou « AI Act », https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=OJ:L_202401689 ).
Il est important de signaler que, « si les corrélations entre usage intensif et santé mentale sont bien documentées, le manque d’accès aux données exhaustives des plateformes empêche encore d’établir une causalité stricte ». Le règlement (UE) 2022/2065 sur les services numériques (Digital Service Act, « DSA ») devrait permettre, grâce à son article 28 relatif à la protection des mineurs, d’ouvrir cet accès aux chercheurs et autorités pour objectiver les effets et différencier TikTok d’autres réseaux « Les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service » (Règl. (UE) 2022/2065 du Parlement européen et du Conseil du 19 oct. 2022 relatif à un marché unique des services numériques et modifiant la dir. 2000/31/CE, dit « règlement sur les services numériques » ou DSA, art. 28).
Il en résulte que les risques d’addiction algorithmique pour les mineurs reposent sur une combinaison : architecture de captation, économie de l’attention, spirale algorithmique documentée, dynamique de marché antagoniste à la prévention, facteurs amplificateurs liés à l’IA et déficit d’accès aux données. Ces constats posent les prémisses juridiques de la responsabilité des plateformes face à un risque systémique.
II.- La responsabilité juridique de TikTok à l’épreuve du risque systémique
Il est important de rappeler que le cadre applicable combine, d’une part, le régime de responsabilité “hébergeur/éditeur” issu de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (L. n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, JO 22 juin 2004, p. 11168 ; art. 6. Disponible sur : https://www.legifrance.gouv.fr/eli/loi/2004/6/21/2004-575/jo/texte, dite LCEN) et, d’autre part, le régime spécifique prévu par le règlement (UE) 2022/2065 sur les services numériques (Digital Services Act – DSA), qui impose aux “très grandes plateformes en ligne” des obligations de gouvernance des risques proportionnées à leur impact (Règl. (UE) 2022/2065 du Parlement européen et du Conseil, 19 oct. 2022, relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques), JOUE L 277 du 27 oct. 2022, p. 1 ; art. 6, 14, 16, 28, 34-35, 74 et 76. Disponible sur : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065) »
Concrètement, le DSA organise une chaîne de diligence procédurale : un outil de signalement « facile d’accès et d’utilisation » permettant des notifications précises, un mécanisme interne de réclamation, puis, pour les très grandes plateformes en ligne, des évaluations régulières des risques et la mise en œuvre de mesures d’atténuation adaptées (modération, réduction de la viralité de certains formats, ajustements de design, transparence accrue) (DSA, art.16, 20, 34-35). Ces exigences s’articulent avec l’obligation d’agir promptement en cas de connaissance d’un contenu manifestement illicite (LCEN, art. 6).
Le droit français a, en parallèle, élargi la liste des contenus illicites à prendre en compte dans la chaîne de modération via la loi n° 2024-449 du 21 mai 2024 relative à la sécurisation et à la régulation de l’espace numérique (dite loi SREN), qui a modifié l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Cette réforme intègre désormais, parmi les contenus illicites devant faire l’objet d’un retrait diligent, des infractions telles que la provocation au suicide, le harcèlement scolaire, la corruption de mineurs, la provocation ou l’apologie publique d’actes de terrorisme ou encore la diffusion d’images à caractère sexuel impliquant un mineur (L. n° 2024-449 du 21 mai 2024 relative à la sécurisation et à la régulation de l’espace numérique, JO 22 mai 2024 ; art. 2, modifiant L. n° 2004-575 du 21 juin 2004, art. 6).
Au regard des pratiques effectives de modération, les constats parlementaires soulignent un décalage entre affichage de conformité et effectivité : automatisation massive de la modération, baisse des ressources humaines francophones, difficultés persistantes à appréhender les codes de contournement (langage chiffré, détournements visuels/sonores) et résultats inégaux des dispositifs de signalement (y compris lorsque des « signaleurs de confiance » ou autorités publiques notifient). Ces éléments interrogent la capacité de la plateforme à satisfaire l’exigence d’atténuation des risques systémiques au sens du DSA (DSA, art. 34-35).
La protection des mineurs constitue un volet cardinal du DSA : les plateformes « accessibles aux mineurs » doivent mettre en place des mesures « appropriées et proportionnées » garantissant un haut niveau de vie privée, de sûreté et de sécurité (DSA, art. 28). Pour combler l’angle mort des contrôles d’âge déclaratifs, la Commission européenne a publié, le 14 juillet 2025, des lignes directrices détaillant des méthodes robustes de vérification et d’estimation de l’âge ainsi que des principes de conception adaptée à l’âge (age-appropriate design), tels que la mise en place par défaut de comptes privés, la désactivation nocturne des notifications ou encore des outils de gestion du temps d’écran, afin d’assurer une mise en œuvre effective des exigences de l’article 28 du DSA (Communication de la Commission européenne, Lignes directrices sur les mesures visant à garantir un niveau élevé de protection de la vie privée, de la sûreté et de la sécurité des mineurs en ligne, conformément à l’article 28, paragraphe 4, du règlement (UE) 2022/2065, C(2025) 4764 final ANNEX, 14 juill. 2025. Disponible sur : https://ec.europa.eu/newsroom/dae/redirection/document/118226) .
Sur le versant national, la loi n° 2023-566 du 7 juillet 2023 dite « majorité numérique » (seuil de 15 ans avec autorisation parentale) n’est pas entrée en vigueur faute de décrets et au regard des remarques de la Commission sur sa compatibilité avec le droit de l’Union (Règl. [UE] 2022/2065 du 19 oct. 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE, JOUE L 277 du 27 oct. 2022, p. 1 ; Dir. 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information et notamment du commerce électronique, JOCE L 178 du 17 juill. 2000, p. 1, art. 3, § 4 sur la procédure de notification ; Rapport n° 1770, Ass. nat., T. I, pp. 134-135) ; d’où un renforcement de la centralité du DSA et de ses lignes directrices pour l’encadrement effectif (Loi n° 2023-566 du 7 juill. 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, art. 4).
Côté effectivité et sanctions, le DSA confère à la Commission des pouvoirs répressifs substantiels : amendes jusqu’à 6 % du chiffre d’affaires mondial et astreintes journalières jusqu’à 5 % des revenus en cas de manquement (DSA, art. 74, 76). Dans ce sens, l’affaire « TikTok Lite » (2024) illustre la portée du DSA. À la suite du lancement en France et en Espagne d’un programme de récompenses incitant à une utilisation prolongée, la Commission européenne a ouvert une procédure formelle (DSA, art. 34-35) et adressé une injonction à TikTok. La plateforme a alors pris des engagements contraignants et retiré la fonctionnalité dans l’UE, avant toute sanction (Commission européenne, Communiqué de presse, Bruxelles, 22 avr. 2024, « DSA: Commission opens formal proceedings against TikTok over concerns related to TikTok Lite app’s “Task and Reward Program” »).
En définitive, un corpus normatif désormais robuste (LCEN, SREN, DSA et lignes directrices « minors ») organise une responsabilité graduée et systémique des plateformes. L’effectivité demeure conditionnée à : (i) la mise en conformité technique (contrôle d’âge robuste, age-appropriate design, traçabilité et vérifiabilité des décisions de modération) ; (ii) des processus de gouvernance des risques documentés et audités (DSA, art. 34-35) ; (iii) l’activation résolue des leviers de supervision et de sanction européens. À défaut, l’exigence de « conception loyale » reste incantatoire ; intégrée et contrôlée, elle devient un standard opposable et effectif pour les très grandes plateformes en ligne. Ces constats rejoignent les orientations récentes du législateur et des institutions européennes, qui esquissent les contours d’une régulation plus ambitieuse et adaptée aux enjeux numériques.
Article préparé avec le soutien financier de la bourse du gouvernement français, attribuée en partenariat entre l’Ambassade de France au Maroc et le Centre National pour la Recherche Scientifique et Technique (CNRST) dans le cadre de la bourse des doctorants moniteurs « PhD-ASsociate ScholarshipPASS ».