Depuis le 3 avril, les réseaux sociaux et services de messagerie opérant dans l’Union européenne ne disposent plus de base juridique spécifique pour détecter et signaler les contenus pédopornographiques. Jusqu’alors, ce mécanisme reposait sur le volontariat des grandes plateformes numériques, leur permettant d’identifier et de signaler des images et vidéos illicites.
Bruxelles souhaite désormais renforcer le cadre réglementaire en imposant aux plateformes des obligations de détection et de signalement des contenus pédopornographiques. Mais ce projet, parfois désigné sous le terme de « Chat Control », suscite de fortes oppositions au sein du Parlement européen et de plusieurs États membres. Certains élus et gouvernements craignent une atteinte disproportionnée à la vie privée des utilisateurs. Une des mesures les plus controversées, qui prévoyait l’analyse des messages privés, y compris dans les messageries chiffrées, a finalement été abandonnée face aux critiques. La Commission européenne a exhorté les institutions à « accélérer de manière significative » leurs travaux afin de combler ce vide juridique et d’aboutir à une solution pérenne.
Dans un communiqué conjoint, Google, Meta, Microsoft et Snap ont appelé les institutions européennes à finaliser rapidement un cadre réglementaire pour détecter et signaler les contenus pédopornographiques., en conciliant protection des enfants et respect de la vie privée.

