Public Discourse
Indicator

Le Public Discourse Indicator présente les données cumulées de commentaires des plus grands sites d’actualités suisses.

Posts soumis hebdomadairement

Chaque semaine, entre environ 70'000 et 135'000 commentaires sont soumis aux médias pour publication. Cela inclut également les contributions qui ne sont finalement pas publiées. Dans des semaines particulièrement chargées en actualités, on peut observer une hausse significative, par exemple fin février 2025, lors des élections en Allemagne et de la rencontre des présidents Zelensky et Trump à la Maison-Blanche. 

Proportion des contributions Toxique Discours de haine

La semaine dernière, entre 15,0 % et 23,8 % des commentaires soumis étaient toxiques, et entre 2,2 % et 6,5 % contenaient des propos haineux. La plupart d'entre eux ne sont jamais publiés en ligne. Vous trouverez plus d'informations sur la manière dont nous définissons la toxicité et les propos haineux dans la FAQ ci-dessous.

Combien d'auteurs écrivent des contributions de haine ?

5% rédigent 78% des commentaires haineux

Les discours haineux ne sont pas rédigés par l'ensemble des utilisateur-ices. Au contraire, une infime partie de ces personne sont responsables de la grande majorité des discours haineux. Concrètement, seuls 5 % des utilisateur-ices rédigent 78 % des commentaires haineux soumis. 

En savoir plus

FAQs

Qu'est-ce que le discours de haine et quelle est la définition du langage toxique ?

Nous considérons des contributions comme toxiques lorsqu’elles relèvent d’au moins une des catégories suivantes :
menaces (par ex. « Je vais te tuer »), insultes (par ex. « Espèce d’idiot »), diffamation (par ex. « Menteur »), langage vulgaire (par ex. « Merde »), langage dénigrant ou rabaissant (par ex. « Même un enfant de cinq ans comprendrait ça »), malveillance (par ex. « Tu devrais te suicider ») ou langage d’exclusion (par ex. « Ferme-la »).

Nous définissons comme discours de haine les contributions qui sont toxiques (voir ci-dessus) et qui ciblent une personne ou un groupe social en raison de leurs facteurs identitaires — c’est-à-dire leur religion, leur origine (y compris le statut migratoire), leur couleur de peau, leur nationalité, leur genre, leur orientation sexuelle ou une situation de handicap.

Comment identifier le discours haineux et les messages toxiques ?

Pour identifier les discours haineux et la toxicité, nous avons développé notre propre algorithme d’intelligence artificielle.

Cela signifie que des spécialistes formés ont évalué des milliers de contributions très similaires comme étant toxiques, haineuses ou ni l’une ni l’autre, et que l’algorithme a appris à distinguer la toxicité et les discours haineux des contributions « normales » à partir de ces évaluations. Ainsi, toutes les nouvelles contributions peuvent être classées chaque semaine.

Pourquoi montrer une fourchette au lieu d'un seul chiffre ?

Comme tous les modèles statistiques comportent une certaine incertitude, nous intégrons l’incertitude de l’algorithme et du réajustement dans nos estimations. C’est pourquoi nous indiquons un intervalle de confiance – c’est-à-dire la plage dans laquelle se trouve très probablement le pourcentage réel – plutôt qu’une seule valeur qui pourrait donner une fausse impression de précision.

D'où viennent les données ?

Les données sont gracieusement mises à disposition par nos partenaires du groupe 20 Minutes et Ringier et comprennent les commentaires de plusieurs médias en ligne germanophones et francophones.

À quelle fréquence le tableau de bord est-il mis à jour ?

Le tableau de bord est mis à jour chaque semaine.

Newsletter

Abonnez-vous dès maintenant à la newsletter de la Public Discourse Foundation et restez informé-e !

Télécharger les données

Télécharger les données agrégées utilisées pour les graphiques.

Download

Stories

Partenaires

Soutiens