Thrive : le programme de Meta, Snap et TikTok pour lutter contre les contenus suicidaires et d’automutilation
Les grandes plateformes de réseaux sociaux prennent des mesures pour lutter contre la propagation des contenus relatifs à l’automutilation et au suicide. Meta, Snap et TikTok se sont associées pour lancer un programme baptisé Thrive. Ce projet vise à limiter la diffusion de contenus explicites ou incitant à des comportements dangereux. Ces entreprises mettent à profit la technologie pour surveiller et alerter les autres plateformes en cas de détection de ce type de contenu.
Thrive : un projet collaboratif pour protéger les utilisateurs
Le programme Thrive a été développé en partenariat avec la Mental Health Coalition. Il s’agit d’une organisation qui milite pour briser les tabous autour des discussions sur la santé mentale. Ensemble, ils ont mis en place un système de partage de « signaux ». Ces derniers permettent aux entreprises de s’informer mutuellement dès qu’un contenu nuisible est présent sur l’une des plateformes. Le but est d’intervenir rapidement et de minimiser l’exposition de ces messages.
Un système de surveillance commun pour plus d’efficacité
Meta fournit l’infrastructure technique qui permet le partage des signaux entre les plateformes. Cette technologie est similaire à celle utilisée dans leur programme Lantern. Ce dernier est déjà en place pour lutter contre la maltraitance des enfants en ligne. Thrive utilise une méthode appelée « hashage » pour identifier les contenus offensants.
Le hashage permet de transformer un média en un code unique. Ce code peut ensuite être comparé à d’autres pour identifier des copies du contenu original. Cela facilite ainsi son retrait des différentes plateformes.
Encadrer la discussion tout en protégeant la liberté d’expression
Même si Meta, Snap et TikTok s’efforcent de restreindre l’accès à des contenus explicites, elles tentent également de créer un espace pour les discussions autour de la santé mentale. Meta, par exemple, reconnaît l’importance de permettre aux utilisateurs de partager leurs expériences personnelles, à condition que ces discussions ne fassent pas la promotion de comportements destructeurs. Cette approche vise à éviter la censure tout en protégeant les utilisateurs.
Des millions de contenus signalés chaque trimestre
Les plateformes sont conscientes de l’ampleur du problème. Meta rapporte avoir pris des mesures contre des millions de contenus relatifs au suicide et à l’automutilation chaque trimestre. Au cours des trois derniers mois, l’entreprise a même rétabli environ 25 000 contenus après que des utilisateurs aient fait appel.
Ces révisions sont faites pour s’assurer que seuls les contenus explicitement dangereux soient supprimés, et non les discussions légitimes autour de la santé mentale.