France
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

Comment les pédophiles utilisent Instagram pour se repaitre de pornographie infantile ET trouver des proies

© AFP

Attention danger

Une enquête du Wall Street Journal a révélé qu'Instagram favorisait la pédopornographie en proposant des contenus de ce type à ceux qui les cherchent. De plus, l’enquête montre que nombre de ces comptes prétendaient être eux-mêmes des enfants, avec des pseudonymes

Un algorithme très incitatif

Pour identifier le phénomène, les chercheurs ont créé des comptes de test pour voir à quelle vitesse la fonction "suggéré pour vous" d'Instagram leur donnerait des recommandations de comptes promouvant du contenu sexuel pour enfants.

Rapidement, l'algorithme d'Instagram a montré de nombreux comptes de contenu sexualisant les enfants, raconte le WSJ. Les utilisateurs pouvaient ainsi rechercher des hashtags tels que "#pedowhore" ou "#preeteensex", ce qui leur permettait de trouver des comptes faisant la promotion de la pornographie infantile. Des termes de recherche tels que #pedobait et des variantes de #mnsfw ("minor not safe for work") était utilisés. Par ce biais, le Stanford Internet Observatory a trouvé 405 vendeurs de ce que les chercheurs ont qualifié de matériel sexuel pour enfants "auto-généré", c'est-à-dire des comptes prétendument gérés par des enfants eux-mêmes, certains prétendant avoir seulement 12 ans.

Lorsque les chercheurs utilisaient certains hashtags pour trouver du matériel illicite, une fenêtre contextuelle apparaissait parfois à l'écran, indiquant : "Ces résultats peuvent contenir des images d'abus sexuel sur des enfants" et précisant que la production et la consommation de ce type de matériel causent "un préjudice extrême" aux enfants. Malgré cela, il leur était possible de "voir les résultats quand même", explique le Wall Street journal.

Un langage codé pour éviter la justice 

Les pédophiles sur Instagram utilisaient un système d'emojis pour communiquer.  Par exemple, un emoji de carte – map en anglais - (🗺️) renvoyait à "minor attracted person" ou "Personne attirée par les mineurs". Un emoji de pizza au fromage – Cheese Pizza - (🍕) était utilisé pour ses initiales, "CP", pour "Child Porn" rapporte le WSJ.

Les comptes s'identifiaient souvent comme "vendeur" ou "s3ller" et indiquaient l'âge des enfants qu’ils exploitaient en utilisant des expressions telles que "au chapitre 14" au lieu de préciser leur âge ou autre voie détournée. 

L’impuissance de Meta

Le signalement des publications ne mène pas nécessairement à leur suppression. Il arrive que des signalements de nudité impliquant un enfant restent sans réponse pendant des mois, selon l'examen de dizaines de rapports déposés l'année dernière par de nombreux défenseurs de la sécurité des enfants , détaille le Wall Street Journal. Pire, après la publication d'une image d'une jeune fille peu vêtue et d'une légende sexuellement explicite, Instagram a répondu en disant : "que la publication de [ce compte] ne contrevient pas à nos directives communautaires".

 Même après l'interdiction par Instagram de certains hashtags associés à la pornographie infantile, les suggestions de hashtags basées sur l'IA d'Instagram contournaient cette interdiction.

Instagram et Twitter, même combat ? 

Les chercheurs ont voulu voir si le réseau social Twitter connaissait le même phénomène. Si des comptes existent bel et bien sûr Twitter également, l'algorithme ne recommande pas ces comptes dans la même mesure qu'Instagram, et ces comptes sont plus rapidement supprimés.  Elon Musk s’est dit très préoccupé par les révélations du WSJ.

L’analyse de Fabrice Epelboin :

Si vous voulez vraiment comprendre l’origine des problèmes, il faut lire la thèse de Yoel Roth, qui est l'ancien grand patron de la modération Twitter et qui s’est fait expulser par Elon Musk. Celle-ci porte sur l'état de la sexualité au cours de l'adolescence, chez les adolescents. Il y dit que la sexualité ne commence pas à 18 ans comme ce que beaucoup de monde pense aux États-Unis et que dans la découverte de la sexualité, les réseaux sociaux jouent un rôle aujourd'hui important. Et notamment à travers l'échange d’autoproduction de contenu pornographique. Concrètement, pour draguer aujourd’hui on s'envoie des photos et ça concerne à peu près 1/3 des adolescents aux États-Unis. 

Et les adolescents qui passent par cette vague-là, voire qui y reste longtemps dans le cadre de leur éveil à la sexualité, ont besoin de plateformes pour trouver cela.

Dans l'industrie du porno, il y a eu un shift entre les sites pornos gratuits à gogo, et une industrie d’échange de photos. Une entreprise qui s'appelle Onlyfans et l’entreprise a grossi énormément jusqu’à atteindre le milliard de chiffre d’affaires. Et il faut savoir que 100% du marketing est fait sur Twitter sans lequel OnlyFans n'existerait pas. Ils n’arriveraient pas à générer des nouveaux clients et tout le recrutement de nouveaux clients se fait sur Twitter.  

Twitter n’a jamais été une société qui a de l'argent et qui a quasiment toujours été déficitaire. Donc il y a un peu plus de 2 ans quelqu'un chez Twitter s’est dit qu’au vu du déficit ce serait très dommage de passer à côté et qu’il faudrait récupérer une partie du business. Ils ont commencé à travailler sur le problème et ils ont tout fait pour que les adolescents puissent s'échanger des images à contenu pornographique. Voir qu’ils les publient sur leur compte avec inévitablement, des vieux pervers en recherche de pédopornographie qui se font passer pour des adolescents pour récupérer des images pornographiques ou éventuellement pour nouer un contact. À l'époque, Yoel Roth a considéré que c'était un mal pour un bien et que qu’il fallait donner la priorité à l'expression sexuelle de cette jeunesse.

Quand Elon Musk est arrivé, ce n'est pas tant qu’il avait déclaré la guerre au pédophile, c'est que ça lui barrait la route à un milliard de chiffre d'affaires potentiel. Donc il a été sans pitié, il a juste exclu tous les pédophiles, y compris les adolescent(e)s qui y produisaient du contenu.

Le cas de Instagram n’est donc pas une première, il est certainement probable que le business qui se faisait sur Twitter s’est finalement retrouvé sur Instagram.

Peut-on lutter contre cela ?

Les plateformes ne vont pas avoir le choix parce que finalement en termes d'image ce n’est pas du tout bon et ils vont être obligés d’exclure tout le monde maintenant, comment lutter contre des adolescents qui découvrent la sexualité. On ne peut interdire aux adolescents d'avoir un téléphone portable à partir du moment. À partir du moment où ils ont un téléphone portable, ils ont un studio audio et vidéo dans la poche. Ça me paraît très compliqué de revenir en arrière. 

À mon sens, c'est comme le porno en ligne, on n’arrivera pas à lutter contre le fait que les adolescents de 11 ans vous pouvez mettre toutes les barrières possibles et imaginables, vous n'aurez que des effets de bord. Si demain Pornhub exige la carte d'identité pour s’y connecter, l’adolescent ira le chercher dans la cour d'école. 

Je pense que les textes de loi qui vont arriver pour verrouiller l'accès au porno n’ont qu’un seul intérêt, c'est de donner l'impression, et aux législateurs et aux parents que le problème est réglé en mettant la poussière sous le tapis.

Mots-Clés