Public Discourse
Indicator

Der Public Discourse Indicator zeigt die kumulierten Kommentardaten der grössten Schweizer News-Portale

Wöchentlich eingereichte Posts

Pro Woche werden zwischen ca. 70'000 und 135'000 Beiträge bei den Medien zur Veröffentlichung eingereicht. Dies beinhaltet auch Beiträge, die schliesslich nicht publiziert werden. In besonders newslastigen Wochen, beispielsweise Ende Februar 2025, als Deutschland wählte und Präsident Selenski Präsident Trump im Weissen Haus traf, sieht man auch im Online-Diskurs einen Anstieg.

Anteil Beiträge Toxisch Hassrede

Letzte Woche waren zwischen 14,4 und 22,6 Prozent der eingereichten Beiträge toxisch, und zwischen 2,4 und 6,5 Prozent beinhalteten Hassrede. Davon wird der grösste Teil nie online veröffentlicht. Mehr Information darüber, wie wir Toxizität und Hassrede definieren, gibt es unten im FAQ.

Wie viele schreiben Hassbeiträge?

5% verfassen 78% aller Hass-Posts

Hassrede wird nicht von allen User:innen verfasst. Im Gegenteil: ganz wenige User:innen sind für den allergrössten Teil der Hassrede verantwortlich. Konkret verfassen nur 5 Prozent der User:innen 78 Prozent der Hasskommentare, die eingereicht werden. 

FAQs

Was ist Hassrede und was sind toxische Posts (Definition)?

Wir sehen Beiträge als toxisch an, wenn sie in (mindestens) eine der folgenden Kategorien fallen: Drohungen (z.B. “Ich bring dich um”), Beleidigungen (z.B. “Du Idiot”), Verleumdungen (z.B. “Lügner”), vulgäre Sprache (z.B. “Scheisse”), erniedrigende oder abwertende Sprache (z.B. “das würde sogar ein Fünfjähriger verstehen”), Böswilligkeit (z.B. “Du solltest dich umbringen”), oder ausschliessende Sprache (z.B. “Halt den Mund”).

Wir definieren Beiträge als Hassrede, die toxisch sind (siehe oben) und sich auf eine Person oder eine gesellschaftliche Gruppe aufgrund ihrer Identitätsmerkmale abzielt - das heisst, aufgrund ihrer Religion, ethnischen Zugehörigkeit oder Herkunft, Abstammung (inklusive Migrationsstatus), Hautfarbe, Nationalität, ihres Geschlecht, ihrer sexuelle Orientierung, oder einer schweren Behinderung.

Wie identifizieren wir Hassrede und toxische Posts?

Um Hassrede und Toxizität zu identifizieren, haben wir einen eigenen KI-Algorithmus entwickelt. 

Das heisst, das trainierte Fachkräfte tausende sehr ähnliche Beiträge als toxisch oder Hassrede (oder weder noch) annotiert haben und der Algorithmus anhand dieser Annotationen gelernt hat, Toxizität und Hassrede von “normalen” Beiträgen zu unterscheiden. So werden wöchentlich alle neuen Beiträge klassifiziert.

Wieso zeigen wir eine Spanne statt einer einzigen Zahl?

Da alle statistischen Modelle eine gewisse Unsicherheit haben, integrieren wir die Unsicherheit des Algorithmus und der Nachjustierung in unsere Schätzungen. Daher zeigen wir ein Konfidenzintervall – also den Bereich, in dem mit hoher Wahrscheinlichkeit der tatsächliche Prozentsatz liegt – statt einer einzigen Zahl, die einen falschen Eindruck von Präzision erwecken könnte.

Woher kommen die Daten?

Die Daten werden grosszügig von unseren Partnern bei TX Group und Ringier zur Verfügung gestellt und beinhalten jeweils die Kommentare mehrerer deutsch- und französischsprachiger Onlinemedien.

Wie oft wird das Dashboard aktualisiert?

Das Dashboard wird wöchentlich aktualisiert.

Newsletter

Jetzt den Newsletter der Public Discourse Foundation abonnieren und auf dem Laufenden bleiben!

Daten herunterladen

Die Aggregatsdaten hinter den Grafiken herunterladen

Download

Stories

Partner

Unterstützer