Mes conclusions de la commission d’enquête TikTok

Avant-propos

« Le silence éternel de ces espaces infinis m’effraie. (1) »

Pascal

Inspire creativity and bring joy / inspirer la créativité et apporter de la joie

Devise officielle de TikTok (2)

« J’ai 17 ans et ma grande sœur a été victime des réseaux sociaux ; j’ai réussi à sauver ma petite sœur de 14 ans et moi-même de ces derniers. Ma grande sœur s’est pendue en février 2024. Avant cela, elle avait effectué quatre tentatives de suicide avec des médicaments. C’est pour ça que je dis qu’elle a été victime des réseaux sociaux : cette idée de se pendre ne lui est pas venue toute seule. En plus de cela, avant de passer à l’acte, elle avait le corps détruit par les mutilations, les scarifications et les cicatrices – sur toutes les parties du corps, visibles ou non. Je sais, parce que je l’ai vu sur son fil TikTok, qu’elle regardait des vidéos qui lui disaient que c’était en quelque sorte positif de se mutiler, parce que cela pouvait signifier qu’elle allait s’en sortir, tout en ayant traversé une épreuve : ce serait marqué sur son corps, mais elle s’en serait sortie. Au final, elle ne s’en est pas sortie et elle s’est juste abîmé le corps » (3).

Soudain, le silence. Ces silences qui pèsent, glaçants, ceux dont on se souvient encore des années plus tard. Dans cette salle Lamartine du 101, rue de l’Université, bien trop grande pour les préadolescents et adolescents que notre commission entend ce 15 mai 2025, l’effroi s’empare des députés, administrateurs et collaborateurs présents lors de cette audition à huis clos. Pendant de longues heures, les récits lourds et empreints d’une grande dignité s’accumulent, témoignant de ce que les réseaux sociaux, et en particulier TikTok, peuvent faire de pire aux esprits et aux corps. Une mécanique broyante qui s’installe derrière un écran de quelques centimètres et qui peu à peu va ruiner les vies des familles présentes réunies derrière le collectif Algos Victima. Ces familles, ces parents et proches donc qui relatent les tentatives de suicide, les suicides, les dépressions, les troubles alimentaires de leurs enfants encouragés par un algorithme infernal qui pousse au pire, qui enferme dans une bulle dont les adultes sont logiquement exclus et qu’ils peinent à percer.

  • Pascal pouvait être sujet à la fascination face à l’immensité de l’univers cosmique. Face à TikTok, la sidération est souvent ce qui revient : sidération face au flot continu, infini, non hiérarchisé ni modéré si ce n’est par un algorithme retors, sidération et parfois incrédulité de députés à l’écoute des témoignages. Mais la sidération ne peut être durable face au vertige de l’univers en apparence sans fin des réseaux sociaux. Cette commission d’enquête est un appel à l’action.
  • https://lifeattiktok.com/philosophy.

Que répondre aux parents de Charlize qui s’est suicidée à 15 ans ? Elle avait republié un post où il était inscrit « la nuit porte conseil. Moi, elle m’a conseillé de prendre un tabouret et une corde » (1). Que dire à la mère de Marie, suicidée à 14 ans, qui dénonce la glamourisation de la dépression sur des contenus d’une tristesse incessante à partir du moment où on en a liké un seul ? À la mère d’Emma qui rapporte que les contenus sur la plateforme sont tellement violents qu’ils décrivent des méthodes de suicide peu communes : « est-ce que vous, en tant que parents, vous donneriez à vos enfants un livre expliquant comment faire un nœud et se pendre à la patère de la salle de bains ? Je ne savais même pas que cela pouvait exister, la façon dont ma fille est partie ! Je ne savais pas que cela existait ! Elle ne l’a pas appris toute seule. On lui a donné l’arme pour se suicider » (2) ? Que dire au père de Pénélope qui décrit l’enfermement vécu par sa fille d’un algorithme malheureusement trop puissant et ce, jusqu’au drame : « face à nous, il y a un algorithme et il est bien plus fort que nous, les parents ; il est plus fort que l’accompagnement que l’on peut donner à ses enfants. Cet algorithme la renvoyait jour après jour à sa douleur et il creusait de plus en plus le trou dans lequel elle tombait. Nous, ses parents, nous n’avons jamais pu contrôler les contenus. Elle a fait quatre tentatives. Elle a ingurgité quinze Doliprane, parce qu’elle avait vu des contenus expliquant qu’il fallait faire comme ça – c’était sa première tentative. Car c’est ça, TikTok ; il ne faut pas aller chercher plus loin, vous êtes tous des parents. C’est ça, TikTok » (3). Quelles réponses apporter aux parents de Zoé, Élisa, Juliette, Édouard… ? Toutes et tous victimes d’une plateforme qui modère insuffisamment, qui expose les jeunes et les moins jeunes à des contenus extrêmement choquants, dont le scroll infini, la gamification et le design de l’application pourraient faire tomber dans l’addiction chacune et chacun d’entre nous, mineurs et même majeurs.

Ces témoignages, pour glaçants et singuliers qu’ils soient, ne sont qu’une part infime de la souffrance mise en évidence, amplifiée et produite par les réseaux sociaux, et notamment par TikTok. Il suffit d’aller à la rencontre de jeunes – je l’ai encore fait à la maison des adolescents de Caen quelques jours avant la présentation de ce rapport, le 5 septembre dernier – pour entendre que ces likes qui enferment, parfois pour le pire, sont le lot commun des mineurs sur les plateformes. Même s’il convient de ne pas résumer les réseaux sociaux à cette face sombre, notre commission d’enquête entendait lever le voile de déni ou parfois de méconnaissance pour tenter de produire un diagnostic partagé sur les dérives et les effets psychologiques de TikTok sur les mineurs.

Cette commission d’enquête est naturellement dédiée aux victimes que nous avons reçues le 15 mai, mais aussi à celles et ceux qui nous écrivent quotidiennement, nous interpellent sur les réseaux sociaux. Ils nous disent être exposés à des contenus violents, être témoins de contenus insupportables, soit parce que la modération y est insuffisante soit parce que des phénomènes de cyber-harcèlement peuvent prospérer en toute impunité et ce, malgré la loi, qui existe, et les conditions générales d’utilisation des plateformes.

  • Compte rendu n° 11.
  • Compte rendu n° 11.

J’étais au départ moi-même prudent sur le périmètre et la nécessité d’une commission d’enquête sur un sujet dont nous connaissions globalement les enjeux avant même de la mener : oui, des mineurs souffrent sur TikTok, c’est de notoriété publique, à quoi bon donc y consacrer une commission d’enquête ?

À l’heure où « l’utilité » du Parlement est souvent questionnée par nos concitoyens, qui disent n’y voir malheureusement trop souvent qu’une arène en apparence désordonnée du débat politique, force est de constater que cette commission d’enquête a attiré l’attention sur une facette essentielle de l’action parlementaire : l’activité de contrôle. Elle a permis de poser les bases non seulement d’un constat commun, mais aussi de l’analyse commune suivante : le système économique des plateformes trouve un intérêt financier à mettre en danger les mineurs par un design algorithmique dangereux et une absence de modération, tout en s’en défendant. Cette analyse partagée par les membres de la commission et désormais par nos concitoyens est, il me semble, l’un des grands enseignements de cette commission.

Combien de fois, depuis l’audition la plus médiatisée de cette commission et sur laquelle nous reviendrons dans la suite de cet avant-propos, n’avons-nous pas entendu des jeunes – et des moins jeunes – évoquer la « commission TikTok ». À de nombreuses reprises, l’audition des influenceurs dits problématiques a servi de porte d’entrée pour aller consulter ou écouter d’autres auditions de la commission d’enquête. Lors d’un forum des associations, à la veille de la publication du présent rapport, j’ai ainsi entendu une personne s’excuser d’écouter en accéléré les auditions tant elles étaient, à l’en croire, nombreuses mais précieuses. C’est tant mieux, et c’est le signe qu’il existe au sein du Parlement des espaces où, lorsqu’on prend le temps d’entendre des experts, des acteurs d’un sujet de société, il y a une demande publique. Cette commission a suscité un intérêt certain et parfois des critiques. Gageons que ce rapport sera donc lu, décortiqué, et qu’il participera aussi à la revalorisation du rôle de notre Assemblée. Le législateur n’est pas déconnecté et s’intéresse à « l’air du temps » que les réseaux sociaux modèlent : il s’agit du monde d’aujourd’hui et de demain.

Les réseaux sociaux, au cœur d’un espace numérique en construction, sont aussi au cœur de nos vies quotidiennes, de nos préoccupations et de nos inquiétudes souvent légitimes. Cette commission d’enquête le démontre. L’inconnue des algorithmes, la puissance des multinationales qui les opèrent, la violence des contenus qui y sont trop souvent produits, engendrent une réelle défiance. La connaissance collective du numérique est encore inaboutie et l’on peut espérer que ce rapport sera une brique supplémentaire dans un débat public indispensable, tant les enjeux d’appropriation et de régulation de ces technologies qui transforment l’espace social sont multiples.

Force est d’admettre qu’après l’audition de 178 personnes, 163 à l’Assemblée nationale et 15 à Bruxelles, après plus de 90 heures d’auditions menées au pas de charge en à peine 3 mois du 12 avril au 26 juin 2025, le constat est encore pire qu’escompté. Il y a urgence à répondre aux géants du numérique qui prospèrent le plus généralement dans l’illusion de la toute puissance, à leur dire que les règles qui régissent l’espace social physique s’appliquent pour protéger les utilisateurs de tout âge et que l’État mettra tout en œuvre pour mettre fin au sentiment d’impunité que ces sociétés peuvent parfois ressentir.

Avec Madame la rapporteure, nous avons mené cette commission d’enquête avec la solennité et la gravité qu’imposent les témoignages des victimes de l’algorithme de TikTok. Sur ce sujet transpartisan et relativement consensuel nous avons cherché à impliquer au maximum le citoyen, premier concerné. Nous avons mis en place une méthode démocratique inédite afin de consulter les Françaises et les Français : l’Assemblée nationale a autorisé notre commission à organiser une consultation publique citoyenne du 23 avril au 31 mai. Elle a recueilli plus de 30 000 réponses, dont près de 19 000 venant de lycéens. Notre commission a écouté et a traité ces témoignages, très nombreux, aussi bien sur la consultation citoyenne que sur la boîte mél dédiée à notre commission et qui a reçu plus de deux cents témoignages, en plus des milliers de réponses précédemment évoquées. Ces témoignages et les auditions ont donc nourri le rapport de Madame la rapporteure mais ont aussi permis d’adapter nos travaux. C’est le cas par exemple de l’audition des influenceurs qui aura capté une attention médiatique probablement démesurée. Leurs noms étaient sur-représentés dans les réponses à la question posée dans la consultation citoyenne sur les influenceurs choquants, nous ne pouvions pas les ignorer.

Puisque j’ai l’occasion de décrire le fonctionnement de notre commission d’enquête, je me dois naturellement de revenir sur l’audition d’influenceurs controversés qui aura généré un emballement médiatique et sur les réseaux sociaux dont nous n’avions évidemment pas anticipé l’ampleur. Alors que l’audition des victimes de la plateforme, la plus importante à nos yeux avec celle des représentants de TikTok, n’a été couverte que par un seul média, je déplore que celle de cinq influenceurs problématiques ait suscité l’engouement de dizaines de médias qui ont été jusqu’à faire des lives sans mise en contexte, ni de l’objet de notre commission d’enquête, ni des logiques du choix de ces influenceurs, ni du fait que d’autres acteurs et influenceurs avaient été auditionnés et que l’on ne pouvait donc résumer notre commission à une audition. À titre de comparaison, les auditions d’influenceurs plus vertueux comme le spécialiste de la vulgarisation de l’actualité Hugo Décrypte, pourtant l’un des plus suivis par les jeunes, le professeur de physique-chimie sur TikTok Monsieur Lechat ou l’influenceuse d’opinion Grande Bavardeuse, la semaine précédente, avaient été infiniment moins relayées.

Cela étant dit et comme j’ai déjà pu l’évoquer, cette audition qui a fait couler tant d’encre numérique, a été menée dans l’objectif de répondre à l’attente suscitée par la consultation citoyenne mais aussi à la suite des auditions précédentes de chercheurs, experts du sujet et lanceurs d’alerte. L’audition consacrée au sexisme

en ligne avait ainsi permis de mettre en avant les rôles joués par Alex Hitchens ou AD Laurent, que nous avons alors décidé de convoquer, tout comme l’audition sur les dérives commerciales nous avait amenés à évoquer la situation de Julien et Manon Tanti. Ces auditions nous ont incontestablement permis de renforcer nos connaissances sur la plateforme et sur la fabrication du « drama » (la dramatisation de l’excès pourrait-on dire, ou la scénarisation du clash) qui permet, comme le serpent qui se mord la queue, à la fois de générer des vues pour l’influenceur mais aussi de capter l’attention de l’utilisateur et donc de générer des revenus pour la plateforme.

Il serait incorrect de dire que ces auditions ont été inutiles, même si celles-ci ont évidemment constitué une rencontre entre deux mondes considérés comme parallèles, à l’image des bulles de filtres qui isolent des univers qui s’ignorent à de rares exceptions. Comment la représentation nationale aurait-elle pu, sans sembler déconnectée, occulter des témoignages des créateurs de contenu ? Nous avons choisi de tenter de leur donner la parole, force est de constater que la plupart s’en sont servis comme d’une tribune, mais – au-delà de l’effet évoqué d’éclairage en retour du reste des travaux de la commission – les enseignements pour les travaux de notre commission restent nombreux.

Le système algorithmique a été parfaitement décrit par Nasser Sari, connu sous le pseudonyme de Nasdas, et particulièrement pour TikTok : « je vais utiliser des termes de créateur de contenu. Pour percer, TikTok est un tremplin. Pour booster ses vidéos aussi. Pour gagner en visibilité, en notoriété et en audimat, le réseau principal aujourd’hui c’est TikTok. […] Et pour répondre en toute sincérité, ce que vous considérez comme misogyne ou violent, nous appelons ça des dramas. Sur internet, sur TikTok, ce sont des dramas. Et je le reconnais, car je l’ai constaté, un drama fera largement plus de vues qu’une vidéo qui explique, je ne sais pas » (1) ou encore Isac Mayembo, connu comme Alex Hitchens : « je me suis vite rendu compte que ce qui fonctionne le mieux, disons-le clairement, c’est le contenu qui choque. C’est généralement celui qui attire le plus l’attention, qui génère le plus de ventes et le plus de transactions. En bref, TikTok est une plateforme où tout se base sur les premières secondes. Je pense que vous le savez » (2). Nasdas, qui avait annoncé quitter les réseaux à la veille de la commission a par ailleurs conclu son propos par une mise en abîme vertigineuse : « Le conseil que j’ai à donner à toute personne qui veut se lancer sur les réseaux ? Ne vous lancez pas sur les réseaux. » (3).

J’ai également été touché par les nombreux messages de soutien de citoyens et parents à la suite de cette audition, qui mentionnaient le plus souvent la découverte de ces influenceurs dont ils ignoraient jusqu’alors l’existence. Si leur mépris de la représentation nationale a choqué, leurs provocations ont aussi révélé à ceux qui croyaient que TikTok n’était qu’une application de divertissement qu’il s’agissait d’abord d’un business juteux, pour la plateforme comme pour certains influenceurs sans éthique. La déconnexion, en cours d’audition, d’Alex Hitchens, a donné lieu à de nombreux commentaires voire à des détournements humoristiques. Au-delà des suites judiciaires qu’il conviendra de donner aux actes de celui qui s’est soustrait à cette audition, constatons qu’Alex Hitchens, qui avait par bravade lancé une formation pour former à la rhétorique contre les députés, a depuis cessé de faire des formations. Il déclarait pourtant qu’il s’agissait de sa principale source de revenus. L’impunité doit cesser.

  • Compte rendu n° 24.
  • Compte rendu n° 24.
  • Compte rendu n° 24.

Cette commission d’enquête aura donc visibilisé des pratiques problématiques auprès de grand nombre de Françaises et Français qui, jusqu’ici, les ignoraient. Une conversation avec leurs enfants leur a permis de constater, comme j’ai pu le faire à de nombreuses occasions, qu’à partir du CM2, AD Laurent, Nasdas ou Alex Hitchens sont des noms connus de la plupart. Pourtant, ces mêmes acteurs feignent d’ignorer que leurs contenus choquants touchent une part non négligeable de mineurs. Ces auditions ont également révélé au grand public les dangers et les règles de l’exploitation de l’image des enfants sur les réseaux sociaux. Les influenceurs Manon et Julien Tanti ignoraient par exemple l’obligation de rédiger un contrat pour les promotions exercées par leurs enfants et le cadre juridique très strict les encadrant. Ils ont depuis retiré une partie des contenus problématiques, mais pas tous. Les lives restent par ailleurs des espaces non régulés et éphémères. Les images d’enfants étaient également exposées et exploitées dans les vidéos de Nasdas, qui a confirmé accueillir de nombreux mineurs protégés ou en détresse dans sa maison à Perpignan, leur distribuant de l’argent, dans une mise en scène entremêlant misère et réussite à ses millions d’abonnés.

Avant de livrer une lecture personnelle du sujet qui a occupé notre commission pendant de nombreuses semaines, je tiens à remercier les artisans de l’ombre de cette commission. Nos administrateurs, Inés Fauconnier, Irène Gay, Sofian Khabot et notre apprenti Baptiste Prétot (1). Madame la rapporteure et moi-même avons eu la chance de pouvoir nous appuyer sur nos propres collaborateurs dont l’implication doit être saluée, Léopold Benattar, Antonin Thomas, Iphigénie Bétolaud et Benjamin Lacourt. Frédéric Poli, de la division de la communication, a de son côté beaucoup œuvré pour la mise en ligne et l’analyse de la consultation citoyenne. Je tiens également à remercier l’ensemble des personnes que nous avons reçues et qui nous ont consacré du temps en présentiel ou en visioconférence, ou celles que nous avons vues à Bruxelles lors d’un déplacement d’une journée. Médecins, psychologues, pédiatres, chercheurs, juristes, avocats, enseignants, créateurs de contenu qui luttent contre la désinformation, notamment médicale et, bien entendu, familles des victimes et victimes des plateformes : leurs précieux témoignages ont indéniablement enrichi nos travaux mais ont aussi permis de faire la lumière sur le fonctionnement de TikTok, ses aspects positifs (ils existent) et ses nombreux dangers. C’est à ces femmes et ces hommes que cette commission d’enquête est dédiée.

  • Auxquels se sont joints ponctuellement, pour sélectionner les témoignages reçus par mail ou via le questionnaire cités dans ce rapport, les stagiaires de la commission des finances Tom Kurth, Naomie Chainho et Ysaure Reynaud. Nous remercions également Laurence Martinez et Pascale Semelet qui ont eu la charge du secrétariat de la commission. J’ai également été appuyé par Alexis Dudonné qui était en stage à mes côtés.

L’algorithme de TikTok, un mécanisme qui broie

Lors de nos auditions et au lancement de la commission, il nous a été régulièrement demandé pourquoi nous n’avions pas élargi nos travaux à l’ensemble des réseaux sociaux. Il est indéniable que de nombreuses problématiques se retrouvent sur d’autres plateformes, avec chacune leurs spécificités, notamment X (ex-Twitter), Snapchat ou encore Instagram. Pire encore, certaines d’entre elles adoptent ou copient le fonctionnement algorithmique de TikTok, s’inspirant du pire pour leurs utilisateurs. L’affaire « Jean Pormanove » (Raphaël Graven), décédé au milieu de l’été en plein stream, après avoir subi sévices et violences psychologiques pendant des heures sur la plateforme australienne Kick qui a fait de sa marque de fabrique l’absence de modération, démontre tragiquement que TikTok n’a pas l’apanage du business du sordide, bien au contraire. L’été 2025 a ainsi été marqué par le suicide d’un autre influenceur, également majeur, Mehdi Bassit, fragilisé après avoir notamment subi une importante campagne de cyberharcèlement. Ces drames illustrent, s’il le fallait, que la dépendance, la manipulation et les violences en ligne ne se limitent pas aux mineurs et que l’action publique ne saurait se satisfaire de tenter de protéger les plus jeunes. Les adultes ont aussi le droit à un internet sain.

Néanmoins, les travaux de notre commission d’enquête étant limités dans le temps – moins de trois mois de « temps utile » entre mi-avril et fin juin – nous avons donc fait, dans la discussion collective définissant le périmètre de la présente commission, le choix de les restreindre à un public, celui des mineurs. Nous avons également circonscrit ce périmètre à une seule plateforme qui, par ailleurs, est reconnue dans les témoignages reçus comme étant l’une des plus problématiques et la plus génératrice de dépendance et de consommation de temps d’écran par les mineurs, le rapport y revient longuement. TikTok est donc l’objet, l’exemple, mais non un cas isolé. Nous avons d’ailleurs eu en audition l’occasion de confronter les représentants des autres grandes plateformes (Meta, YouTube, X, Snapchat) aux nombreuses dérives analogues constatées sur leurs réseaux. Enfin, comme les auditions ont pu le démontrer, l’algorithme extrêmement puissant et le mécanisme de flux continu vertical de TikTok, imité par les autres plateformes, en fait un objet d’enquête largement justifié.

TikTok n’est pas une plateforme neutre. C’est une machine algorithmique conçue pour capter l’attention, l’enfermer dans un circuit fermé de contenus similaires, et l’exploiter : c’est le fameux fil « Pour toi » qui tranche avec les débuts des réseaux sociaux où l’interface était basée sur un contenu chronologique nécessitant une action de l’utilisateur pour le personnaliser. Désormais, dès qu’un utilisateur ouvre l’application, il est happé dans une succession de vidéos recommandées par l’algorithme, calibrées pour provoquer une réaction émotionnelle immédiate (rire, choc, colère, par exemple) mais surtout du temps d’attention. Cet effet n’est pas le fruit du hasard, il est l’aboutissement d’un design psychologique pensé pour provoquer une addiction comportementale. C’est ce qu’on appelle l’effet « terrier de lapin », la rapporteure y revient en détail. L’algorithme, dont TikTok refuse toujours de dévoiler les ressorts, observe ainsi chaque interaction de l’utilisateur : temps de visionnage, arrêt sur image, likes, partages. Puis il affine ses suggestions en fonction de ces signaux faibles. C’est un mécanisme de spirale : plus on regarde un certain type de contenu, plus on est exposé à des vidéos similaires. En quelques clics, un adolescent peut passer d’une vidéo de danse anodine à une vidéo anxiogène sur le suicide ou la haine de soi et s’y retrouver enfermé. Cet algorithme était un point central de nos auditions. Des créateurs de contenu aux chercheurs, toutes et tous sont unanimes : il est opaque, incompréhensible et généré selon des paramètres inconnus des utilisateurs, ce qui est évidemment inadmissible.

Selon Médiamétrie, que nous avons auditionné, les 11-17 ans passent en moyenne 4 heures et 38 minutes par jour sur Internet, dont 3 heures et 11 minutes sur les réseaux sociaux et les messageries. Chez les adolescents, TikTok est utilisé quotidiennement par 40 % des 11-17 ans, un chiffre qui grimpe à 47 % chez les 15-24 ans. Plus inquiétant encore, ces jeunes se connectent en moyenne cinq fois par jour à TikTok, avec une durée moyenne de session d’une heure et 28 minutes. L’usage est intensif, multi-journalier, et clairement favorisé par le design de l’application. L’architecture attentionnelle de TikTok s’inscrit dans une économie de captation du temps de cerveau disponible qui laisse peu de place au recul critique. L’algorithme est très puissant et vise à maintenir l’utilisateur sur la plateforme. Amnesty International, dans un rapport intitulé Poussé.e.s vers les ténèbres. Comment le fil “Pour Toi” de TikTok encourage l’automutilation et les idées suicidaires (1) a pu démontrer très facilement comment cet algorithme encourage le visionnage de vidéos nocives : « parmi les recommandations proposées à un compte, la première vidéo accompagnée du hashtag “#depresionanxiety” (sic) (“dépressionanxiété”) et montrant un garçon en état de détresse a été suggérée au bout de 67 secondes de défilement du contenu recommandé sur la page “Pour toi”. À partir de 12 minutes de défilement, 58 % des publications recommandées avaient un rapport avec l’anxiété, la dépression, l’automutilation et/ou le suicide, et étaient catégorisées comme pouvant avoir des effets néfastes sur les enfants et les jeunes souffrant déjà de problèmes de santé mentale ». Ces phénomènes inquiètent d’ailleurs le milieu médical. Le professeur Amine Benyamina, psychiatre et addictologue, alerte sur les conséquences : « lorsqu’un individu présente une désocialisation, une déscolarisation, une immersion excessive dans les réseaux sociaux, nous le prenons en charge comme pour toute autre addiction » (2).

  • https://amnestyfr.cdn.prismic.io/amnestyfr/f7a52b32-793f-4e0a-a83a- 737436f415f3_Pouss%C3%A9%C2%B7e%C2%B7s+vers+les+t%C3%A9n%C3%A8bres_rapport_Tiktok_ Amnesty_International_FR.pdf.

Mise en danger de la vie humaine, prolifération de la haine masculiniste : TikTok, terreau fertile des violences faites à soi et aux autres

La prolifération de contenus dangereux sur cette plateforme est donc non seulement tolérée, mais parfois activement promue par l’algorithme de TikTok, du fait de leur capacité à susciter l’engagement. Et ce qui choque, engage. C’est le cas des « challenges » à risque par exemple ou des mots-clés que la plateforme met parfois plusieurs mois à faire retirer. Maître Laure Boutron-Marmion, avocate, expliquait ainsi que « des jeunes se voient proposer de l’argent pour se filmer en train de se scarifier, de vomir, bref : pour se mettre en scène » (1). Charlyne Buigues, infirmière et lanceuse d’alerte sur les contenus liés à la maigreur extrême, rappelait que « plus ces influenceuses accumulent des millions de vues et d’abonnés, plus elles sont rémunérées, ce qui entretient cette pathologie très grave, de telle sorte que de nombreuses jeunes filles souffrant de TCA se mettent, elles aussi, à ouvrir des comptes TikTok pour gagner de l’argent » (2). Alors que TikTok était parfaitement au courant de l’existence du mot-clé #SkinnyTok, il a fallu attendre la mobilisation citoyenne via une pétition et l’intervention des pouvoirs publics pour que la plateforme prenne enfin des actions concrètes. Le name and shame doublé d’un volontarisme politique semble ainsi plus efficace que la modération. D’autres mots-clés dangereux, malgré les alertes et nos remarques émises lors de la commission, restent par ailleurs encore en ligne.

La présence de contenus dangereux ne s’arrête pas aux contenus qui mettent en danger la santé voire la vie des utilisateurs. La plateforme favorise, par les mécanismes de viralisation des contenus problématiques, la diffusion d’idéologies politiques négatives et contraires aux droits humains. Racisme, antisémitisme, glorification du terrorisme, sexisme… les dérives sont nombreuses. Lors de nos auditions, une mouvance est particulièrement ressortie, nous conduisant à y dédier une table-ronde : le masculinisme, qui connaît un fort retentissement sur l’application. Des discours appelant à dominer, humilier, ou dénigrer les femmes y sont largement diffusés, particulièrement chez les jeunes voire les très jeunes. L’audition du masculiniste Alex Hitchens a été particulièrement commentée chez les collégiens.

La plateforme semble aussi être un espace favorable pour le harcèlement des créateurs de contenus. La créatrice de contenu Anna Baldy évoquait les nombreuses insultes à caractère sexiste qu’elle reçoit : « “t’es un torchon à foutre inculte, reste dans le domaine des gorges profondes, réservoir à foutre lobotomisé, essaie plutôt d’apparaître dans un fait divers le vide-couille du tiers-monde”. Ce qui m’inquiète profondément, c’est que ces commentaires ont probablement été écrits par des personnes mineures et que de tels propos sont vraisemblablement formulés quotidiennement sous les vidéos de créatrices et de créateurs mineurs » (3). Alors même que de récents faits divers impliquant la mouvance masculiniste et les

  • Compte rendu n° 11.
  • Compte rendu n° 8.

attaques au couteau de la part d’hommes souhaitant exprimer leur haine des femmes se multiplient récemment, l’influence des réseaux sociaux et particulièrement de TikTok doit conduire à une prise de conscience collective. Nous ne pouvons nous contenter de diffuser des extraits de la série Adolescence dans les établissements scolaires. M. Pierre Gault, réalisateur du documentaire Mascus, les hommes qui détestent les femmes, a décrit TikTok comme « une plateforme incontournable pour la diffusion du discours masculiniste », expliquant que ces contenus abordent au départ des thèmes « tels que la musculation, la séduction, le style de vie », avant de bifurquer vers des « communautés privées beaucoup plus radicales » (1). Lors de notre audition consacrée au sujet, Mme Shanley Clemot McLaren, cofondatrice de l’association Stop Fisha, a rappelé un chiffre très inquiétant : « 60 % des femmes déclarent avoir été victimes de violences en ligne et elles sont 27 fois plus susceptibles d’être harcelées en ligne que les hommes ». Mme Pauline Ferrari, journaliste, confirme ce rôle central de TikTok dans la diffusion des discours masculinistes, décrivant la plateforme comme « un catalyseur dans ce processus de radicalisation », ajoutant qu’« en moyenne, les jeunes hommes sont exposés à de tels contenus en moins de 20 minutes de navigation » (2). La responsabilité de la plateforme, qui permet la prolifération de ces contenus, est immense. M. Tristan Duverné, doctorant, l’a mis en lumière lors de nos auditions : « le débat sur la féminité [d’une] streameuse a entraîné une augmentation de 45 % de l’audience en seulement deux minutes », soulignant ainsi que « ces offenses servent souvent à augmenter la visibilité » (3).

Enfin, il faut noter que l’ensemble des contenus dangereux, violents ou choquants sur TikTok sont démultipliés par leur duplication sur les autres plateformes et réciproquement. Ainsi, il est parfaitement courant de retrouver ces contenus sur Instagram, Snapchat, Facebook, X, etc. Les producteurs de contenus eux-mêmes sont présents sur la plupart des plateformes et jouent avec les règles de modération et les codes de chacune.

L’inaction désolante et dangereuse de TikTok

Une des auditions les plus marquantes a bien sûr été celle des dirigeants de TikTok accompagnés par leur avocat qui organisait quelques jours avant cette audition un évènement intitulé « Commissions d’enquêtes parlementaires et entreprises privées ». Cette formation avait pour objectif « d’analyser les leviers juridiques à la disposition des opérateurs économiques pour se préparer à une audition devant une commission d’enquête parlementaire et limiter le risque d’y voir leur responsabilité exposée » car les commissions d’enquête seraient aujourd’hui « détournées de leur objet pour intervenir dans la stratégie des entreprises privées et mettre en cause leurs dirigeants (4) ». Ambiance.

Nous avons auditionné pendant 7 heures et 35 minutes plusieurs dirigeants de la firme qui se sont succédé dans un exercice de langue de bois et de déni. Lors des auditions, comment ne pas être frappé par l’absence de réponse claire, par le manque d’humilité et par l’inaction de responsables qui de toute façon ne semblent pas contrôler grand-chose d’une application internationale dont la volontaire fragmentation en plusieurs entités favorise l’immobilisme. Par ailleurs, l’attitude prétendument collaborative des dirigeants de TikTok contrastait avec la difficulté à obtenir les réponses au questionnaire très détaillé que nous avons envoyé en amont de l’audition. Nous en avons renvoyé un second à l’issue de cette audition. Des dizaines de questions sont donc restées sans réponse sous de faux prétextes, et lorsque nous obtenions des réponses elles restaient parcellaires, quand elles n’étaient pas à côté de la plaque ou de simples copiés-collés des rapports de transparence. Par ailleurs, alors qu’on nous avait proposé de visiter le centre de transparence à Dublin (1), nous avons demandé formellement à la plateforme de pouvoir se déplacer dans un centre de modération au Portugal. Nous avons eu en retour une proposition de déplacement à Dublin uniquement au Transparency and Accountability Center, pour une durée d’une heure sans possibilité d’échanger avec des salariés. Tout ceci témoigne bien évidemment d’une forme de mépris de l’entreprise envers la représentation nationale et, plus largement, d’un refus de rendre des comptes à la société et à ses représentants qui en demandent légitimement.

Forte de moyens colossaux et grâce à une vitrine composée de salariés courtois et bien préparés, TikTok a tenté de sauver son image de marque. L’audition marathon à l’Assemblée nationale restera néanmoins marquée par ces quelques moments où, derrière les réponses lisses et les attitudes impassibles, les visages des représentants de TikTok se liquéfiaient quand ils étaient confrontés à la violente réalité de certains contenus ou propos présents sur la plateforme. Que dire également de ces dirigeants qui, confrontés par exemple aux propos masculinistes d’Alex Hitchens, et alors que nous évoquions la possibilité d’interroger la responsable Europe sur ces contenus l’après-midi, ont « fait le ménage » sur la pause méridienne en suspendant ses nombreux comptes, avant de les réactiver le lendemain et en ne supprimant que les vidéos les plus problématiques. Le sexisme plus ou moins diffus, l’environnement misogyne qui flirte avec les limites du judiciarisable, semble donc avoir sa place sur TikTok, comme sur de nombreuses plateformes. La constellation de contenus produits par les influenceurs problématiques devrait pourtant être prise en compte et donner lieu à la suspension intégrale des comptes, ça n’est pas le cas.

La responsable des politiques de sécurité a néanmoins osé affirmer que TikTok était un « environnement sûr » (2), un slogan mirage rappelant le temps où les alcooliers martelaient que l’alcool à petite dose était bon pour la santé, ou ces cigarettiers qui faisaient de la promesse d’émancipation un levier de désirabilité du produit. L’aspect économique prime évidemment derrière la vitrine d’une

application soi-disant destinée à forger des communautés. TikTok Shop, récemment lancé en France, est devenu en quelques semaines une plateforme de dropshipping où les produits de basse qualité fabriqués en Asie sont revendus à moindre coût, tout cela étant bien sûr largement encouragé par la plateforme qui positionne des influenceurs faisant la promotion en continu de ces mêmes produits bas de gamme. Notons que la page d’e-commerce de Tiktok est désormais située entre les fils “Pour toi” (contenu suggéré, automatiquement proposé à l’ouverture de la plateforme) et “Suivis” (contenus auxquels l’utilisateur est abonné). Tout est fait pour favoriser la dépense sur la plateforme.

Mais dans le monde fabuleux de TikTok, si l’aspect algorithmique est central, un autre l’est tout autant et reste pourtant moins connu : celui des lives, ces diffusions en direct qui rapportent énormément d’argent à la plateforme. Lors de ces lives où des matchs sont souvent organisés, des influenceurs récoltent des cadeaux virtuels de la part des utilisateurs, ces cadeaux étant payés à partir de pièces virtuelles, elles-mêmes achetées par de l’argent en monnaie courante. Les influenceurs perçoivent ces cadeaux sous forme de diamants (qui sont égaux aux pièces initialement créditées par les utilisateurs), sur lesquels TikTok empoche 50 % de commission. Vous avez eu du mal à suivre ? C’est normal, tout est fait pour donner l’apparence d’un jeu à l’utilisateur, alors même qu’il dépense de l’argent bien réel. Cette stratégie de gamification est particulièrement néfaste puisque tout le design des lives est fait pour encourager l’addiction : musique très forte, influenceurs criant les pseudos des donateurs, enjeu de remporter le match, incitations aux dons des influenceurs, pièces gratuites données ponctuellement pouvant être converties… Les lives sur TikTok empruntent les codes des casinos et des jeux d’argent tout en étant dispensés de la réglementation afférente car à la seule différence d’un casino, il n’y a pas d’espoir d’emporter un gain numéraire. Pourtant, il existe bien une autre forme de gain : une reconnaissance de la part de l’influenceur et le développement d’un sentiment d’appartenance à une communauté. Alors même que la plateforme assure que les mineurs ne peuvent pas figurer sur les lives ou même acheter des cadeaux (mais ils peuvent y assister normalement, nous avons fait le test), en seulement quelques défilements de lives nous pouvons voir des mineurs les mener tranquillement et faire participer d’autres mineurs, certainement sous de faux comptes majeurs. Nous avions identifié cette difficulté depuis plusieurs mois déjà : au moment de la dénonciation des mauvaises pratiques de certains influenceurs sur d’autres réseaux en 2022 (1), nombreux se sont tournés vers ces lives, entraînant leur communauté et leurs portefeuilles avec. Cette incitation permanente à la dépense dans des formes de nouvelle mendicité sur un réseau social comme si l’attention, la collecte de données et les publicités ciblées ne suffisaient pas à générer suffisamment de revenus, fait de TikTok l’un des plus grands monstres de l’économie de l’attention. Son appétit semble malheureusement insatiable.

Si les réseaux sociaux peuvent être dangereux à bien des égards, l’insuffisance coupable de la modération est l’un des points clés. Malgré les profits records de la plateforme, l’investissement pour assurer une modération de qualité est dérisoire et bien en-deçà du volume de contenus qu’il faudrait traiter. Lors de son intervention devant notre commission, un ancien modérateur ayant travaillé pour TikTok via un sous-traitant au Portugal a révélé des conditions de travail extrêmement difficiles, devant examiner jusqu’à 800 vidéos par service à un rythme infernal pour respecter la cadence imposée par le cahier des charges. Il a également décrit une formation d’une semaine à peine, sans lien avec TikTok. Cette mission, qui est donc sous-traitée, est confiée à 509 modérateurs (selon les chiffres du second semestre 2024) pour les contenus francophones du monde entier, un chiffre dérisoire et en baisse constante depuis qu’ils sont publics : il était de 634 six mois plus tôt. Les dirigeants de TikTok ont indiqué à notre commission que 80 % du contenu enfreignant leurs conditions générales sont modérés par de l’intelligence artificielle, laissant officiellement 20 %, mais probablement beaucoup moins, au filtre humain. Pourtant, nulle statistique nécessaire pour prouver l’inefficacité de ce système, nous avons nous-mêmes créé de faux comptes mineurs sur l’application, signalé des contenus choquants, la modération par intelligence artificielle n’ayant rien fait et l’appel étant également rejeté. À la veille de la présentation de ce rapport, une vidéo du suicide en direct d’une jeune femme est restée toute une nuit en ligne, malgré les signalements. La réponse automatique indiquait qu’elle ne contrevenait pas aux règles d’utilisation. En réalité, la suppression de contenus est bien trop faible et nous recevons quotidiennement des signalements concernant des posts n’ayant pas fait l’objet de modération : le parlementaire, dont le rôle n’est pas de se substituer à la plateforme et à la justice, ne peut que se résoudre à un constat, celui de manquements majeurs. C’est bien la responsabilité de la plateforme de s’assurer que les contenus présents sur celle-ci respectent le droit national et européen ainsi que leurs propres règles internes. Malheureusement, comme évoqué précédemment, les contenus générant de la viralité, de l’engagement et donc des revenus pour la plateforme, sont souvent problématiques. La plateforme n’a donc pas d’intérêt économique à les retirer. Tel est le drame de la modération chez TikTok.

Quelle réponse politique pour ne pas se résoudre à l’impuissance et sortir de la sidération ?

Face à ces drames et défaillances majeures, la réponse politique doit être à la hauteur pour répondre à l’inaction des plateformes, pour rendre leur environnement numérique sain. Si j’ai ici esquissé les principales failles de la plateforme, je ne nie pas que des points positifs peuvent s’en dégager. Pendant nos auditions, les jeunes ou ceux qui sont à leur contact ont évoqué des bienfaits tels l’accès à l’information, à de la découverte, à des créateurs vertueux, à des contenus divertissants, drôles ou humoristiques mais aussi inoffensifs. Souvent, la plateforme crée un sentiment d’appartenance, donne à des jeunes en recherche de repères le sentiment d’être compris ou de trouver sur la plateforme des personnes qui partagent des expériences similaires.

Contrairement aux autres plateformes, l’espace de socialisation véritable reste faible, hormis l’espace consacré aux commentaires, mais la plateforme peut être un lieu de détente. Loin d’avoir une vision conservatrice des choses, je suis persuadé qu’à partir de 13 ans une utilisation des réseaux sociaux encadrée, s’agissant des contenus et de la durée, peut être bénéfique ou en tout cas acceptable. Nous avons aussi entendu des experts évoquer un recul critique des jeunes sur les usages du numérique : ils sont bien souvent plus vigilants et conscients des biais que leurs aînés, il faut renforcer l’éducation aux médias pour prolonger cela. Ne cédons néanmoins pas à la naïveté, les plateformes n’étant pas des acteurs philanthropiques, elles sont avant tout guidées par un intérêt économique qui passe d’abord par la collecte et la revente de données et de temps d’attention. Elles sont donc particulièrement réticentes à assainir leur espace, se réfugiant plus que de raison derrière leur statut contestable d’hébergeur.

Pourtant, l’interdiction de l’accès aux réseaux sociaux pour les moins de 15 ans – souhaitée notamment par le président de la République et préconisée par Madame la rapporteure – ne me paraît pas être la réponse la plus adaptée et ce pour plusieurs raisons. Interdire l’accès des réseaux sociaux aux moins de 15 ans, c’est d’une certaine manière admettre que nous avons renoncé à réguler les géants du numérique. Nous ferions d’abord reposer la charge de la responsabilité sur les jeunes plutôt que sur l’entreprise privée qui est à l’origine du problème : je ne peux m’y résoudre. En outre, les jeunes ne vivent pas hors ligne dans un monde où le numérique a pris une part essentielle. Le périmètre même d’une telle interdiction, au-delà des questions de faisabilité technique et des contournements possibles, pose question : faut-il interdire YouTube, Whatsapp ou Telegram ? La borne d’âge à 15 ans ne me semble par ailleurs pas être la plus adaptée. Serions- nous vraiment moins vulnérables à un contenu choquant à 15 ans qu’à 14 ans ? En quoi le fil « Pour toi » sur TikTok serait-il plus sain à 17 ans qu’à 13 ans ? Nous avons vu une jeune de 16 ans basculer en quelques mois, malgré un contrôle parental, dans une spirale de contenus mortifères et multiplier les tentatives de suicide. Comment, surtout, appliquer une telle mesure sans risquer d’apparaître impuissant, une fois de plus, sur le sujet ? Face aux dérives, il peut donc être tentant de chercher la martingale, la bonne idée qui viendra peut-être régler le problème. La responsabilisation ou l’infantilisation des jeunes peut être une solution simple.

Loin de souhaiter une action nationale dispersée, la réponse que nous devons apporter devra au contraire d’abord être européenne et commune à l’ensemble des plateformes tant les dérives sont loin de se circonscrire à TikTok. Nous avons rencontré une quinzaine d’acteurs à Bruxelles lors de nos travaux : Commission européenne, Parlement européen, Commission de protection des données, Data Protection Commission (l’équivalent irlandais de la CNIL)… Comment ne pas être frappé par la lenteur des processus, et la multiplication des strates de décisions, qui donnent l’impression d’un immobilisme au moment où les citoyens n’ont jamais eu autant besoin de l’Europe pour les protéger ? Un cadre européen, le plus protecteur du monde, existe désormais. Un cadre complémentaire, le DFA (Digital Fairness Act) en préparation, doit permettre d’aller plus loin. Des procédures de contrôle sont d’ores et déjà engagées mais elles sont trop lentes et les enquêteurs sont trop peu outillés face aux pressions et aux hordes d’avocats des plateformes. Le partage d’information entre les différents services et commissaires reste lacunaire, nous avons pu le constater. La force du marché unique réside dans son unité, sa taille et sa capacité à peser face aux géants américains. Sans réponse commune, nous sommes objectivement moins forts. Mais la France doit être à l’initiative, comme elle a su l’être sur la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi influenceurs, et doit prendre les devants, comme elle le fait actuellement sur les mécanismes de vérification d’âge.

La plus grande des urgences, c’est d’obliger les plateformes à contrôler et à vérifier efficacement l’âge des utilisateurs par le biais d’un intermédiaire sécurisé et d’un système public qui ne collecte pas les données et qui donnera uniquement l’indication de minorité ou d’âge aux plateformes.

La seconde urgence, c’est d’agir sur le design des applications en adaptant les interfaces aux utilisateurs déclarés comme mineurs, afin que celles-ci ne soient pas addictives, protègent du cyberharcèlement et de l’exposition aux contenus choquants, et permettent une déconnexion effective. Laissons la possibilité d’appliquer cette exacte même interface aux comptes majeurs, malheureusement soumis aux mêmes problématiques.

Contraignons les plateformes à revoir leur système de modération en dédiant une part significative de leur chiffre d’affaires au recrutement d’un nombre de modérateurs suffisant, et à participer au financement des signaleurs de confiance via un mécanisme public de redistribution afin d’éviter les conflits d’intérêt. Ces signaleurs sont souvent des associations sans but lucratif qui effectuent un travail de vigie d’importance.

Enfin, et en cas d’échec de la régulation, laissons-nous la possibilité de fermer purement et simplement les plateformes récalcitrantes, le droit européen le prévoit. Les utilisateurs retrouveront aisément le divertissement sur des plateformes

respectueuses de nos règles. Ce n’est pas aux plateformes d’imposer un fonctionnement, c’est à la puissance publique de les y soumettre, peu importe le nombre d’avocats qui veulent bien les représenter.

Conclusion

TikTok n’est pas qu’une simple application de divertissement. C’est un univers algorithmique tentaculaire, façonné pour capter l’attention et monétiser l’engagement. Tant que le public ne s’en saisit pas et que les sanctions tardent à venir, tant que les risques réputationnels restent limités, tous les coups semblent permis. À l’issue de cette commission d’enquête, le verdict est sans appel : cette plateforme expose en toute connaissance de cause nos enfants, nos jeunes, à des contenus toxiques, dangereux, addictifs. Elle échappe trop souvent aux règles, se défausse de ses responsabilités, et prospère dans une économie de l’attention qui feint d’ignorer les ravages psychologiques et sociaux qu’elle provoque. Les chiffres, les témoignages, les faits : tout démontre que l’algorithme de TikTok pousse au pire, isole, enferme, détruit. Je pense que notre mission n’est pas de moraliser, ni d’interdire par facilité. Elle est de rendre le numérique compatible avec les droits et la santé mentale de nos jeunes, à en limiter les effets psychologiques sur les mineurs. Il faut forcer TikTok à repenser son modèle. Cette commission était dédiée aux victimes et à leurs proches, à celles et ceux qui ont parlé, qui ont témoigné. Nous ne pouvons pas leur rendre ce qui a été perdu, mais nous pouvons et devons faire en sorte d’avoir tout fait pour que plus jamais un adolescent ne soit conduit à se voir proposer des conseils pour se donner la mort sur une application. Pour que plus jamais un parent n’ait à découvrir trop tard l’ampleur du désespoir de son enfant sur un fil algorithmique.

Ce combat ne fait que commencer.

Recommandations du Président

Ces recommandations sont complémentaires à celles de la rapporteure auxquelles le président souscrit pour l’essentiel, nonobstant les quelques réserves émises dans cet avant-propos.

Recommandation du président n° 1 : Imposer que les comptes mineurs ne puissent avoir accès qu’à un fil présentant leurs abonnements volontaires, interdire les fils “Pour toi” ou présentant des contenus d’autres comptes auxquels les mineurs ne sont pas abonnés. L’algorithme ne peut personnaliser le fil d’actualité, tout flux addictif est interdit.

Recommandation du président n° 2 : À l’installation de l’application, proposer à l’utilisateur un fil qui n’est pas infini. Interdire le défilement infini de vidéos pour les comptes mineurs. Le défilement des publications y est chronologique par défaut et ne peut être modifié pour les comptes mineurs.

Recommandation du président n° 3 : Renforcer le cadre juridique des délits sexistes en ligne et du cyberharcèlement en y intégrant la lutte contre l’idéologie masculiniste.

Recommandation du président n° 4 : Interdire totalement les lives qui offrent la possibilité aux utilisateurs de verser de l’argent ou des cadeaux aux utilisateurs âgés de moins de 18 ans.

Recommandation du président n° 5 : Qualifier les dons sur TikTok de jeux d’argent, supervisés par l’Autorité nationale des jeux, contenant des messages de prévention et un suivi des dons à l’instar du principe du jeu responsable.

Recommandation du président n° 6 : Renforcer significativement les contrôles des produits vendus sur la plateforme TikTok Shop et procéder à sa fermeture si ceux-ci ne respectent pas les règles commerciales européennes. Interdire l’accès à la plateforme TikTok Shop aux comptes mineurs, et ne pas imposer cet accès aux autres comptes.

Recommandation du président n° 7 : Obliger les plateformes à vérifier l’âge des utilisateurs par le biais d’un outil sécurisé développé au niveau européen.

Recommandation du président n° 8 : Contraindre les plateformes de réseaux à dédier une part de leur chiffre d’affaires au recrutement de nouveaux modérateurs, à la formation de ceux-ci et à l’amélioration sensible de leurs conditions de travail.

Recommandation du président n° 9 : Mettre en place un système de financement public des signaleurs de confiance reposant sur une contribution des réseaux sociaux proportionnelle à leur chiffre d’affaires, afin que l’activité complémentaire de signalement exercée par des ONG, coûteuse en moyens humains, puisse être financée par un mécanisme de redistribution, afin de prévenir les conflits d’intérêts avec des signaleurs de confiance dépendants d’un financement direct.

Recommandation du président n° 10 : Imposer une surtaxation aux très grandes plateformes au sens du DSA qui ne mettent pas en place des mesures correctrices de protection des mineurs.

Recommandation du président n° 11 : Mettre en place le principe d’une fiscalité pollueur-payeur pour les plateformes au regard de l’impact de leurs activités sur l’environnement et la santé.

Recommandation du président n° 12 : Installer un comité des usagers des jeunes utilisateurs français des plateformes afin d’associer les premiers concernés aux évolutions de ces entreprises. Leurs recommandations seraient transmises aux plateformes qui pourraient également assister aux échanges.

Recommandation du président n° 13 : En cas de non-respect des règles de vérification d’âge, d’adaptation de l’interface pour les comptes mineurs et d’une modération satisfaisante, ordonner la fermeture définitive de la plateforme.

A consulter également

  • Explosion à Caen

    Explosion à Caen

    Une pensée forte pour les victimes de l’explosion survenue ce matin dans une boucherie du centre-ville, ainsi qu’aux propriétaires du commerce, durement touchés. Je tiens à saluer l’intervention rapide et exemplaire des sapeurs-pompiers, des forces de l’ordre et des services de secours, qui ont permis de maîtriser la situation et de prendre en charge les…

  • Premier bilan de la commission d’enquête TikTok

    Premier bilan de la commission d’enquête TikTok

    ​ Après 3 mois d’enquête et plus de 150 auditions, nous dressons un premier bilan de la commission d’enquête. Lien de l’article ci-dessous : Quels sont les effets psychologiques de TikTok sur les mineurs ? C’est la question à laquelle tente de répondre la commission d’enquête parlementaire lancée en mars. Après une consultation publique ayant généré…

  • A la rencontre de la Coopérative Funéraire Normande, à Ifs

    A la rencontre de la Coopérative Funéraire Normande, à Ifs

    Une agence de pompes funèbres pas comme les autres, qui fait le choix de l’Économie Sociale et Solidaire pour proposer une alternative éthique, humaine et durable dans un moment de vie toujours délicat. Ici, les prestations funéraires sont pensées pour être accessibles à toutes et tous, respectueuses des personnes et de l’environnement. Leur engagement :…