TikTok durcit sa vérification d’âge en Europe pour lutter contre les mineurs
TikTok renforce ses mécanismes de contrôle pour empêcher les moins de 13 ans d’accéder à sa plateforme en Europe. Après une phase de test d’un an, le réseau social déploie un système automatisé combinant analyse des contenus et comportement des utilisateurs pour détecter les profils suspects. Cette mesure s’inscrit dans le cadre des exigences européennes en matière de protection des mineurs, renforcées par le règlement sur les services numériques (DSA).
Le dispositif repose sur une évaluation algorithmique des profils, croisant les vidéos publiées et les habitudes d’utilisation. En cas de suspicion, un modérateur humain prendra la décision finale avant d’éventuellement supprimer le compte. Les utilisateurs pourront contester cette décision en fournissant des preuves d’identité (pièce d’identité, informations bancaires ou vérification faciale).
Cette initiative s’ajoute aux 6 millions de comptes de mineurs supprimés chaque mois par TikTok à l’échelle mondiale. La plateforme cherche ainsi à se conformer aux attentes des régulateurs européens, notamment la commission irlandaise de la protection des données, tout en évitant des sanctions plus lourdes.
Les comptes des adolescents restent soumis à des restrictions par défaut : limites de temps d’utilisation, messagerie restreinte et filtrage des contenus. Cependant, les discussions politiques en Europe pourraient encore durcir les règles, avec des propositions visant à interdire les réseaux sociaux aux moins de 15 ans.
