Facebook a pris des mesures sur 16,2 millions de pièces de contenu en novembre en Inde

Le géant des médias sociaux Meta a déclaré que plus de 16,2 millions de contenus avaient été « traités » sur Facebook dans 13 catégories de violations de manière proactive en Inde au cours du mois de novembre. Sa plate-forme de partage de photos, Instagram, a pris des mesures proactives contre plus de 3,2 millions d’articles dans 12 catégories au cours de la même période, selon les données partagées dans un rapport de conformité.

En vertu des règles informatiques entrées en vigueur plus tôt cette année, les grandes plateformes numériques (avec plus de 5 millions d’utilisateurs) doivent publier chaque mois des rapports de conformité périodiques, mentionnant les détails des plaintes reçues et les mesures prises à leur égard.

Il comprend également des détails sur le contenu supprimé ou désactivé via une surveillance proactive à l’aide d’outils automatisés. Facebook avait « agi » de manière proactive sur plus de 18,8 millions d’éléments de contenu en octobre dans 13 catégories, tandis qu’Instagram a pris des mesures contre plus de 3 millions d’éléments dans 12 catégories au cours de la même période de manière proactive.

Dans son dernier rapport, Meta a déclaré que 519 rapports d’utilisateurs avaient été reçus par Facebook via son mécanisme de réclamation indien entre le 1er et le 30 novembre.

« Sur ces rapports entrants, nous avons fourni des outils aux utilisateurs pour résoudre leurs problèmes dans 461 cas », indique le rapport.

Ceux-ci incluent des canaux préétablis pour signaler du contenu pour des violations spécifiques, des flux d’auto-correction où ils peuvent télécharger leurs données, des moyens de résoudre les problèmes de piratage de compte, etc., a-t-il ajouté. Entre le 1er et le 30 novembre, Instagram a reçu 424 signalements via le mécanisme de réclamation indien.

La société mère de Facebook a récemment changé son nom en Meta. Les applications sous Meta incluent Facebook, WhatsApp, Instagram, Messenger et Oculus.

Selon le dernier rapport, les plus de 16,2 millions d’articles de contenu mis en œuvre par Facebook en novembre comprenaient du contenu lié au spam (11 millions), au contenu violent et graphique (2 millions), à la nudité adulte et à l’activité sexuelle (1,5 million) et au discours de haine ( 100 100).

Les autres catégories dans lesquelles le contenu a été traité comprennent l’intimidation et le harcèlement (102 700), le suicide et l’automutilation (370 500), les organisations et individus dangereux : propagande terroriste (71 700) et les organisations et individus dangereux : la haine organisée (12 400).

Des catégories telles que la catégorie Mise en danger des enfants – Nudité et abus physiques ont vu 163 200 éléments de contenu traités, tandis que Mise en danger des enfants – Exploitation sexuelle a vu 700 300 éléments et dans la catégorie Violence et incitation, 190 500 éléments ont été traités. Le contenu « traité » fait référence au nombre d’éléments de contenu (tels que des publications, des photos, des vidéos ou des commentaires) pour lesquels des mesures ont été prises pour violation des normes.

Prendre des mesures pourrait inclure la suppression d’un élément de contenu de Facebook ou Instagram ou la couverture de photos ou de vidéos pouvant déranger certains publics avec un avertissement.

Le taux proactif, qui indique le pourcentage de tous les contenus ou comptes sur lesquels Facebook a trouvé et signalé à l’aide de la technologie avant que les utilisateurs ne les signalent, variait dans la plupart de ces cas entre 60,5 et 99,9 %.

Le taux proactif de suppression de contenu lié à l’intimidation et au harcèlement était de 40,7 %, car ce contenu est contextuel et hautement personnel par nature. Dans de nombreux cas, les gens doivent signaler ce comportement à Facebook avant qu’il puisse identifier ou supprimer un tel contenu. Pour Instagram, plus de 3,2 millions de contenus ont été traités dans 12 catégories en novembre 2021. Cela inclut le contenu lié au suicide et à l’automutilation (815 800), le contenu violent et graphique (333 400), la nudité adulte et l’activité sexuelle (466 200), et intimidation et harcèlement (285 900).

Les autres catégories dans lesquelles le contenu a fait l’objet d’une action comprennent les discours haineux (24 900), les organisations et individus dangereux : la propagande terroriste (8 400), les organisations et individus dangereux : la haine organisée (1 400), la mise en danger d’enfants – la nudité et les abus physiques (41 100) et la violence et Incitation (27 500).

La catégorie « Mise en danger des enfants – Exploitation sexuelle » a vu 1,2 million de contenus traités de manière proactive en novembre.

Bouton retour en haut de la page