Un nouveau rapport d’Amnesty International intitulé Entraîné·e·s dans le « Rabbit hole » montre que le fil « Pour toi » de TikTok pousse les enfants et les jeunes qui manifestent un intérêt pour la santé mentale dans un cercle vicieux de contenus dépressifs ou valorisant l’automutilation et le suicide. De nouvelles preuves soulignent l’incapacité persistante de TikTok à remédier aux risques systémiques que la conception de sa plateforme fait courir aux enfants et aux jeunes. Synthèse du rapport.
■ Deux ans après avoir lancé une première alerte, Amnesty International constate que le fil « Pour toi » de TikTok entraîne les adolescent·e·s dans une « spirale » profondément nocive : une nouvelle expérience a montré que des comptes d’adolescent·e·s manifestant un intérêt pour des contenus relatifs à la tristesse ou à un mal-être psychologique étaient orientés vers des contenus dépressifs en moins d’une heure de navigation sur ce fil.
■ Au bout de trois à quatre heures, les utilisateurs et utilisatrices se sont vu proposer des vidéos donnant une vision romanesque du suicide ou montrant des jeunes faisant part de leur intention de mettre fin à leurs jours, avec notamment des informations sur les méthodes de suicide.
■ Des témoignages de jeunes ayant pratiqué l’automutilation et de parents endeuillés révèlent les conséquences catastrophiques de ce fil sur la santé mentale et physique des adolescent·e·s mal dans leur peau.
En novembre 2023, Amnesty International avait publié un rapport accablant montrant comment les enfants et les jeunes manifestant un intérêt pour la santé mentale pouvaient être facilement attirés dans une « spirale » de contenus dépressifs et suicidaires sur le fil « Pour toi » de TikTok.
Ses recherches avaient révélé que TikTok s’appuyait sur une conception addictive pour générer un maximum d’engagement, portant atteinte aux droits au respect de la vie privée, à la liberté de pensée et à la santé mentale et physique.
Depuis, avec des jeunes de différents pays allant de l’Argentine à l’Irlande en passant par le Kenya et le Pakistan, Amnesty International fait campagne pour que cela change. Plus de 125 000 personnes ont signé une pétition appelant TikTok à rendre sa plateforme plus sûre. Cependant, et tandis que les autorités de régulation commencent bien trop lentement à s’attaquer aux préjudices causés par le secteur des géants technologiques, TikTok ne fait toujours rien pour remédier à son modèle addictif et à ses « spirales » nocives, faisant passer le profit avant la sécurité des enfants.
C’est en France que la campagne mondiale d’Amnesty International a reçu le plus de soutien et suscité le plus de débats. Pour de trop nombreux jeunes et leurs familles, ces préjudices n’ont rien d’abstrait : ce sont des expériences qu’ils ont vécues – et continuent de vivre. Entre 2024 et 2025, 11 familles françaises se sont jointes à un recours collectif contre TikTok afin d’établir la responsabilité de cette entreprise dans la détérioration de la santé mentale et physique de leurs enfants, notamment sa contribution à la mort de deux adolescentes de 15 ans, Marie Le Tiec et Charlize Dapui-Parkiet, et de lui demander des comptes.
Ce rapport complémentaire d’Amnesty International rassemble les témoignages de certaines de ces familles et jeunes victimes, et présente de nouvelles preuves qualitatives et quantitatives de la passivité persistante de TikTok face aux risques et préjudices de son modèle économique.
Les éléments de preuve qui y sont présentés montrent que TikTok ne fait rien pour remédier aux risques que son modèle fait courir aux enfants et aux jeunes, en violation des normes internationales relatives à la responsabilité des entreprises en matière de droits humains ainsi que de ses obligations contraignantes au titre du Règlement sur les services numériques (DSA) de l’Union européenne (UE).
Ce rapport lance un appel urgent à l’entreprise elle-même, mais aussi aux autorités de régulation françaises et européennes afin qu’elles agissent fermement pour l’obliger à respecter les droits fondamentaux au respect de la vie privée, à la liberté de pensée et à la santé, notamment des mineur·e·s.
Amnesty International a partagé ses principales conclusions avec TikTok et lui a offert la possibilité de commenter, mais l’entreprise n’a pas fourni de réponse avant la publication.
Pour remédier à ces risques, Amnesty International appelle la Commission européenne à :
■ inclure les présentes conclusions dans son enquête en cours sur les possibles violations par TikTok de ses obligations au titre du DSA et veiller à ce que cette enquête et la mise en œuvre de ses recommandations soient promptes et efficaces ;
et TikTok à :
■ passer à un modèle économique respectueux des droits qui ne soit pas fondé sur un suivi intrusif des données. Pour commencer, TikTok doit veiller à ce que ses politiques et processus de diligence nécessaire en matière de droits humains s’attaquent aux conséquences systémiques et généralisées qu’a son modèle économique sur les droits humains et en particulier sur les droits au respect de la vie privée, à la liberté d’opinion et de pensée et à la santé ;
■ cesser de chercher à maximiser « l’engagement des utilisateurs et utilisatrices » aux dépens de leur santé et autres droits humains. Dans le cadre de son processus de diligence raisonnable en matière de droits humains, TikTok doit identifier, en coopération avec les utilisateurs et utilisatrices, y compris les enfants et les jeunes, ainsi qu’avec des spécialistes indépendants, les éléments de conception qui encouragent une utilisation addictive de la plateforme et des comparaisons sociales, et les remplacer par une expérience axée sur la « sécurité par la conception » et l’intérêt
supérieur de l’enfant ;
■ cesser de collecter des données personnelles intimes et d’opérer des déductions quant aux intérêts, à l’état émotionnel ou au bien-être des utilisateurs et utilisatrices en fonction de leur engagement et du temps de visionnage des contenus pour « personnaliser » les recommandations et cibler les publicités. Au lieu de se livrer à une surveillance généralisée pour adapter les fils aux intérêts des utilisateurs et utilisatrices, TikTok doit permettre à ceux-ci d’indiquer par eux-mêmes leurs centres d’intérêt de façon volontaire (par exemple, il pourrait leur être demandé d’entrer les sujets qui les intéressent plus particulièrement s’ils/elles souhaitent obtenir des recommandations personnalisées) et seulement sur la base d’un consentement libre, spécifique et éclairé.
Entrainé.e.s dans le Rabbit Hole * De nouvelles preuves montrent mes risques de Tiktok pour la santé mentale des enfants, Amnesty Internationnal, octobre 2025
*« Terrier de lapin » : effet désignant les spirales de contenus en ligne










