5,24% des commentaires analysés par Bodyguard.ai qualifiés de toxiques
La société Bodyguard.ai, qui protège les marques et les individus des contenus toxiques en ligne, a publié un baromètre de la toxicité en ligne, après avoir collecté et analysé pendant 1 an près de 171 millions de commentaires issus de 1 200 réseaux sociaux. On y apprend que 5,24% des commentaires analysés par Bodyguard.ai sur une année sont qualifiés de toxiques, ce qui représente, sur la base de l’échantillon retenu, le nombre de 5 614 360. Parmi eux, on trouve différents types de contenus négatifs, dont les plus courants sont les insultes (57%), les propos haineux (28%) et ceux autour du body shaming (4%). Viennent ensuite les contenus discriminatoires, fondés sur l’origine ethnique, la religion, l’orientation sexuelle ou le sexe : phobie LGBTQIA+ (2%), racisme (2%) et misogynie (1%). Enfin, les propos considérés comme violents : harcèlement sexuel (3%) et moral (2%) puis les menaces (1%).
Après avoir analysé les différents types de toxicité, Bodyguard.ai s’est intéressé à leur degré de gravité (faible, moyen, élevé et très élevé). Sur plus de 5 millions de commentaires haineux identifiés, 40% ont été classés comme présentant un degré de gravité élevé. Il est donc plus probable de voir apparaître sur son écran des expressions comme « espèce d’enfoiré » plutôt que « t’es bête », confirmant la tendance à une culture du fight (conflit) qui se développe sur Internet, explique le rapport. L’étude de Bodyguard.ai montre ainsi que les opinions se polarisent de plus en plus.
Pour consulter le rapport, c'est par ici.