Saisi en septembre 2025, le parquet de Paris s’est appuyé sur plusieurs éléments transmis par le député Arthur Delaporte. Celui-ci relayait les constats d’une commission d’enquête parlementaire consacrée aux effets psychologiques de TikTok, dont les auditions ont mis en lumière une série de défaillances liées à la modération, à l’accès facilité des mineurs et au fonctionnement de l’algorithme. Selon ces constats, certaines personnes vulnérables pouvaient être dirigées, en quelques interactions seulement, vers des contenus sensibles, notamment autour du suicide. Le parquet a donc estimé nécessaire de vérifier si ces mécanismes pouvaient relever d’infractions pénales. Des rapports antérieurs intégrés à l’analyse du parquet La section spécialisée dans la cybercriminalité a rassemblé plusieurs analyses publiques pour éclairer l’enquête. Le Sénat, en 2023, avait déjà mis en avant des risques liés à la liberté d’expression, à la collecte de données et à la présence de contenus offensants. Amnesty International, la même année, alertait sur un algorithme présenté comme addictif, avec des effets potentiels sur le comportement des plus jeunes. En 2025, une étude menée par Viginum soulignait le risque d’une influence sur l’opinion, en particulier dans un contexte électoral. Ces documents, différents dans leurs angles, convergent vers une interrogation commune : la manière dont l’algorithme de TikTok organise et oriente l’attention de ses utilisateurs. La Brigade de lutte contre la cybercriminalité de la préfecture de police de Paris a été désignée pour mener les investigations. Les enquêteurs doivent examiner plusieurs qualifications pénales possibles, parmi lesquelles la fourniture d’une plateforme permettant une transaction illicite en bande organisée, l’altération d’un système de traitement automatisé de données ou encore la propagation de moyens de se donner la mort. Elle doit également vérifier si TikTok a respecté son obligation de notifier tout soupçon d’infraction concernant un utilisateur ou un intermédiaire, et comprendre comment l’algorithme peut orienter la présentation des contenus lorsque des profils fragiles sont impliqués. Isabelle Lampart
Saisi en septembre 2025, le parquet de Paris s’est appuyé sur plusieurs éléments transmis par le député Arthur Delaporte. Celui-ci relayait les constats d’une commission d’enquête parlementaire consacrée aux effets psychologiques de TikTok, dont les auditions ont mis en lumière une série de défaillances liées à la modération, à l’accès facilité des mineurs et au fonctionnement de l’algorithme. Selon ces constats, certaines personnes vulnérables pouvaient être dirigées, en quelques interactions seulement, vers des contenus sensibles, notamment autour du suicide. Le parquet a donc estimé nécessaire de vérifier si ces mécanismes pouvaient relever d’infractions pénales. Des rapports antérieurs intégrés à l’analyse du parquet La section spécialisée dans la cybercriminalité a rassemblé plusieurs analyses publiques pour éclairer l’enquête. Le Sénat, en 2023, avait déjà mis en avant des risques liés à la liberté d’expression, à la collecte de données et à la présence de contenus offensants. Amnesty International, la même année, alertait sur un algorithme présenté comme addictif, avec des effets potentiels sur le comportement des plus jeunes. En 2025, une étude menée par Viginum soulignait le risque d’une influence sur l’opinion, en particulier dans un contexte électoral. Ces documents, différents dans leurs angles, convergent vers une interrogation commune : la manière dont l’algorithme de TikTok organise et oriente l’attention de ses utilisateurs. La Brigade de lutte contre la cybercriminalité de la préfecture de police de Paris a été désignée pour mener les investigations. Les enquêteurs doivent examiner plusieurs qualifications pénales possibles, parmi lesquelles la fourniture d’une plateforme permettant une transaction illicite en bande organisée, l’altération d’un système de traitement automatisé de données ou encore la propagation de moyens de se donner la mort. Elle doit également vérifier si TikTok a respecté son obligation de notifier tout soupçon d’infraction concernant un utilisateur ou un intermédiaire, et comprendre comment l’algorithme peut orienter la présentation des contenus lorsque des profils fragiles sont impliqués. Isabelle Lampart
Saisi en septembre 2025, le parquet de Paris s’est appuyé sur plusieurs éléments transmis par le député Arthur Delaporte. Celui-ci relayait les constats d’une commission d’enquête parlementaire consacrée aux effets psychologiques de TikTok, dont les auditions ont mis en lumière une série de défaillances liées à la modération, à l’accès facilité des mineurs et au fonctionnement de l’algorithme. Selon ces constats, certaines personnes vulnérables pouvaient être dirigées, en quelques interactions seulement, vers des contenus sensibles, notamment autour du suicide. Le parquet a donc estimé nécessaire de vérifier si ces mécanismes pouvaient relever d’infractions pénales. Des rapports antérieurs intégrés à l’analyse du parquet La section spécialisée dans la cybercriminalité a rassemblé plusieurs analyses publiques pour éclairer l’enquête. Le Sénat, en 2023, avait déjà mis en avant des risques liés à la liberté d’expression, à la collecte de données et à la présence de contenus offensants. Amnesty International, la même année, alertait sur un algorithme présenté comme addictif, avec des effets potentiels sur le comportement des plus jeunes. En 2025, une étude menée par Viginum soulignait le risque d’une influence sur l’opinion, en particulier dans un contexte électoral. Ces documents, différents dans leurs angles, convergent vers une interrogation commune : la manière dont l’algorithme de TikTok organise et oriente l’attention de ses utilisateurs. La Brigade de lutte contre la cybercriminalité de la préfecture de police de Paris a été désignée pour mener les investigations. Les enquêteurs doivent examiner plusieurs qualifications pénales possibles, parmi lesquelles la fourniture d’une plateforme permettant une transaction illicite en bande organisée, l’altération d’un système de traitement automatisé de données ou encore la propagation de moyens de se donner la mort. Elle doit également vérifier si TikTok a respecté son obligation de notifier tout soupçon d’infraction concernant un utilisateur ou un intermédiaire, et comprendre comment l’algorithme peut orienter la présentation des contenus lorsque des profils fragiles sont impliqués. Isabelle Lampart