Actualités

Thrive : le programme de Meta, Snap et TikTok pour lutter contre les contenus suicidaires et d’automutilation

Les grandes plateformes de réseaux sociaux prennent des mesures pour lutter contre la propagation des contenus relatifs à l’automutilation et au suicide. Meta, Snap et TikTok se sont associées pour lancer un programme baptisé Thrive. Ce projet vise à limiter la diffusion de contenus explicites ou incitant à des comportements dangereux. Ces entreprises mettent à profit la technologie pour surveiller et alerter les autres plateformes en cas de détection de ce type de contenu.

Thrive : un projet collaboratif pour protéger les utilisateurs

Le programme Thrive a été développé en partenariat avec la Mental Health Coalition. Il s’agit d’une organisation qui milite pour briser les tabous autour des discussions sur la santé mentale. Ensemble, ils ont mis en place un système de partage de « signaux ». Ces derniers permettent aux entreprises de s’informer mutuellement dès qu’un contenu nuisible est présent sur l’une des plateformes. Le but est d’intervenir rapidement et de minimiser l’exposition de ces messages.

Un système de surveillance commun pour plus d’efficacité

Meta fournit l’infrastructure technique qui permet le partage des signaux entre les plateformes. Cette technologie est similaire à celle utilisée dans leur programme Lantern. Ce dernier est déjà en place pour lutter contre la maltraitance des enfants en ligne. Thrive utilise une méthode appelée « hashage » pour identifier les contenus offensants.

Le hashage permet de transformer un média en un code unique. Ce code peut ensuite être comparé à d’autres pour identifier des copies du contenu original. Cela facilite ainsi son retrait des différentes plateformes.

Encadrer la discussion tout en protégeant la liberté d’expression

Même si Meta, Snap et TikTok s’efforcent de restreindre l’accès à des contenus explicites, elles tentent également de créer un espace pour les discussions autour de la santé mentale. Meta, par exemple, reconnaît l’importance de permettre aux utilisateurs de partager leurs expériences personnelles, à condition que ces discussions ne fassent pas la promotion de comportements destructeurs. Cette approche vise à éviter la censure tout en protégeant les utilisateurs.

Des millions de contenus signalés chaque trimestre

Les plateformes sont conscientes de l’ampleur du problème. Meta rapporte avoir pris des mesures contre des millions de contenus relatifs au suicide et à l’automutilation chaque trimestre. Au cours des trois derniers mois, l’entreprise a même rétabli environ 25 000 contenus après que des utilisateurs aient fait appel.

Ces révisions sont faites pour s’assurer que seuls les contenus explicitement dangereux soient supprimés, et non les discussions légitimes autour de la santé mentale.

Photo de Arielle

Arielle

Bavarde avec ma plume, mais introvertie par nature, je baigne dans l'univers de la rédaction depuis plus de cinq ans. Bien que je sois polyvalente dans les thèmes à traiter, j'ai une familiarité accrue pour le high-tech. J'espère que ma plume saura vous divertir tout en vous informant !

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page