Kommentarbereich
Kommentarbereich im Internet haben den Ruf erlangt, unhöflich, argumentativ und allgemein als “giftig” bezeichnet zu werden. Toxische Kommentare beziehen sich auf unhöfliche, respektlose oder unangemessene Kommentare, die wahrscheinlich dazu führen, dass man eine Diskussion verlässt. Kommentarabschnitte sind für häufige Streitigkeiten und Meinungsverschiedenheiten bekannt. Der Grund dafür kann in der Tatsache liegen, dass Menschen mit starken Überzeugungen eher Kommentare abgeben und auf andere antworten, wenn der Kommentarbereich weitgehend gegen sie ist. Ebenso neigen Benutzer dazu, still zu bleiben, wenn ihre Ansichten weitgehend unterstützt werden. Außerdem, Dank des Hauptelements des Internets, das die Fähigkeit ist, anonym zu bleiben, Viele Menschen erkennen, dass sie gegenüber anderen aggressiver sein können, ohne Angst vor der Rechenschaftspflicht in der realen Welt zu haben. Darüber hinaus kommentieren Menschen Nachrichtenartikel eher, wenn sie persönlicher betroffen sind. Die Teilnahme an Kommentaren ist in der Regel gering, da die meisten Artikel nur zweimal kommentieren und eher Themen kommentieren, die ein bestimmbares Ende haben.
Wenn ein Kommentarbereich moderiert wird, erfolgt dies normalerweise auf eine der drei Arten: Nachmoderation, Vormoderation oder über ein Markierungssystem. Kommentare, die nachmoderiert werden, werden nach dem Posten überprüft. Vormoderierte Kommentare werden geprüft, bevor sie öffentlich sichtbar gemacht werden. Kommentare, die mit einem Flagging-System moderiert werden, können von anderen Benutzern für offizielle Website-Moderatoren markiert oder “markiert” werden. In einigen Fällen können sowohl die Herausgeber als auch die Benutzer über Abstimmungssysteme und Berichtsoptionen unterschiedliche Moderationsgrade in Kommentarbereichen anbieten.
Im Februar 2017 stellte der von Google gegründete Technologie-Inkubator Jigsaw ein auf künstlicher Intelligenz basierendes Tool namens Perspective API vor, um giftige Kommentare in Online-Foren zu identifizieren.
Im September 2017 analysierte Disqus, ein Unternehmen, das Kommentar-Hosting-Dienste anbietet, über 92 Millionen Kommentare von 2 Millionen Menschen über 16 Monate in etwa 7.000 Foren, die seinen Service nutzten, und kam zu dem Schluss, dass 25% aller Kommentatoren mindestens einen giftigen Kommentar abgegeben haben. Die Studie wurde mit der Perspective API von Google durchgeführt. In den Vereinigten Staaten war die Tageszeit, zu der der maximale Anteil der Kommentare giftig war, 3 Uhr morgens. Engadget prangerte jedoch die zugrunde liegende API an und machte auf ihre diskriminierenden Klassifizierungen aufmerksam – Sätze wie “Ich bin eine schwule schwarze Frau” wurden als 87% toxisch eingestuft. Es beschrieb den Algorithmus als “sexistisch, rassistisch und ableist”.
Kommentarabschnitte sind oft dafür bekannt, sehr sexistische und frauenfeindliche Aussagen zu enthalten. In einer Studie mit feministischen Artikeln auf mehreren Nachrichten-Websites wurde festgestellt, dass viele das feministische Thema nicht unterstützten oder dazu beitrugen. Viele Kommentare wurden als absichtlich kämpferisch befunden und als eine Form von Internet-Trolling angesehen.
Gute Moderation von Nachrichten-Websites ist teuer. Die meisten Nachrichtenseiten moderieren jedoch. Studien von Zeitungswebsites und Blog-Kommentaren haben gezeigt, dass in bis zu 25% der Kommentare Unhöflichkeit vorhanden ist. Es wurde festgestellt, dass die meisten Verlage und Autoren Unhöflichkeit im Kommentarbereich tolerieren und akzeptieren. Dies liegt an der Tatsache, dass Unhöflichkeit subjektiv ist und das Entfernen dieser Kommentare zu Vorwürfen der Voreingenommenheit und unfairen Zensur führen kann.