Foren-Diskussionen: Forscher entwickeln vollautomatisches Anti-Troll-System

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Foren-Diskussionen: Forscher entwickeln vollautomatisches Anti-Troll-System

Forscher haben ein vollautomatisches Anti-Troll-System für Foren entwickelt, dass sogar bereits zum Einsatz kommt und dort erstaunlich gute Ergebnisse abgeliefert hat. Es könnte die Moderation in Zukunft entlasten, vielleicht sogar ersetzen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Foren-Diskussionen: Forscher entwickeln vollautomatisches Anti-Troll-System
 
An sich eine gute Idee.
Würde nur gerne mal wissen nach was der Algorithmus die "Trolle" aussortiert ?
Ich meine so ein Bad-Word Filter gibt es doch schon - und den kann man relativ easy austricksen ^^
 
Ist das ein verspäteter Aprilscherz :huh:

Ein neuentwickelter Algorithmus der Trollpostings erkennt soll und ich dachte immer das die menschliche Dummheit keine Grenzen kennt :ugly:.

Finde es aber iwie unnötig die Trolle gehören zur einem Forum dazu :daumen:
 
An sich eine gute Idee.
Würde nur gerne mal wissen nach was der Algorithmus die "Trolle" aussortiert ?
Ich meine so ein Bad-Word Filter gibt es doch schon - und den kann man relativ easy austricksen ^^

Genau diese Information trennt den Artikel zwischen Informationsbrocken und Information mit Hintergrundwissen ... :what:
PCGH ... das könnt ihr besser :wall:
 
würde mich mal interessieren, wer den artikel zuerst geschrieben hatte. hab von dem troll detektor schon auf anderen webseiten gelesen. vor allen dingen braucht der detektor 10 beträge um einen künftigen troll zu erkennen.
derjenige der den ursprungsartikel geschrieben hatte ist der wahre troll und das sehe ich schon an seinem ersten beitrag ;-)
 
Da gibt es eine Windows Zukunft Seite deren Kommentar Bereich braucht sowas dringend.
Hier hingegen wäre sowas mit einer Atombombe auf eine made zu werfen sprich vollkommen unnötig.
 
Wie erkennt so ein System, ob ein Beitrag sarkastich gemeint ist?
Z.B. ein Kommentar der andere Kommentare mit strunzdämlichen Aussagen nachahmt (subtil oder over the top), um vom „Zielpublikum“ entsprechende Reaktionen zu provozieren?
Auf sowas fallen tagtäglich genug Menschen rein, nicht selten braucht man Insider-/Hintergundwissen, um solche Beiträge zu entlarven, und jetzt soll das ein Algorithmus lösen?

Nie im Leben!



PS:
Höchstens indirekt könnte ich mir vorstellen, daß es funktionieren könnte.
Indem die Reaktionen ausgewertet werden.
Aber selbst dann gibt es die, die darauf reinfallen und andere, die den Troll beim Namen nennen.
Da ist dann wieder die Frage: Wer hat recht?
 
Zuletzt bearbeitet:
Ich habe meine Zweifel ob das wirklich gut funktioniert, denn es scheitert doch schon viel zu oft bei simpler Rechtschreibung-/Grammatikkorrektur.

Wie will nun das Anti-Troll-System erkennen ob etwas zum Thema passt oder nicht und ob es ausschließlich provokant ist? Unterschiedliche Dialekte und Slangs kommen ja noch hinzu...

Das kann lediglich eine Unterstützung für Moderatoren sein, aber eine Ablösung dieser sehe ich nicht.
 
Ich moderiere mich bereits selbst nach einem unfehlbaren Algorithmus, weitere moderative Maßnahmen gegen meine Postings sind daher unnötig.
 
  • Like
Reaktionen: hfb
Das heißt also das System hat seine Daten von gesperrten Accounts, aha.

Na dann hoffe ich mal dass das System eine bessere Trefferquote in Zukunft bringt.
 
Ich könnte mir das nur so vorstellen das das Programm verdächtige Aktivitäten einem Moderator meldet und der dann die Finale Entscheidung trifft ob Person X deswegen Verwarnt/Gebannt wird oder nicht..
------
Allerdings löst diese Art der "Troll-Bekämpfung" keine Moderatoren ab.
 
Ich kann mir das nur als (kleine) Unterstützung vorstellen. Ich möchte ja als User menschliche Wesen haben, die ich ansprechen kann wenn es ein Problem gibt :D
Es würde ohne Mods sowieso nicht funktionieren, da ein Mod ja noch mehr Aufgaben hat als nur Trollbekämpfung.
 
Mangels Zeit habe ich den Artikel nicht gelesen, möchte aber dennoch kurz was zur Heuristik und zur Qualität der dahinter stehenden Analyse sagen. Ich habe mich kürzlich mit einem Kollegen unterhalten, der Texteanalysesysteme beforscht. Seiner Aussage zufolge sind die aktuell existierenden Lösungen schon so weit, dass sie beispielsweise aus einem Text mit recht hoher Treffsicherheit die dazu passende Emotion benennen können. Zudem ist es möglich, Unterhaltungen zusammenzufassen.
Kein Wunder, dass Facebook ermöglicht, jedes Statusupdate mit einer bestimmten Emotion zu versehen - damit werden nur die Datenbanken gefüttert und die Heuristiken verfeinert.

Aber SELBSTVERSTÄNDLICH (!!!1111) geht es nicht ohne Mods - denn zumindest ich behaupte von mir, (noch) eine höhere Trefferquote bei der Erkennung von potenziellen Brandstifterposting zu erzielen :ugly:

MfG Jimini
 
Du kannst gerne die statistische Analyse für die Community hier anders zusammenfassen:
http://arxiv.org/pdf/1504.00680v1.pdf

:daumen:

Ich meinte damit ja nicht, dass Ihr eine wissenschaftliche Abhandlung dazu verfassen sollt.
Aber bei Grafikkarten- & CPU-Architekturen berichtet ihr immer bis ins's kleinste Detail und wie sich die Änderungen der aktuellen Generation auf die Leistung auswirken könnten ... dagegen fand ich den Informationshappen in diesem Artikel etwas zu klein ... Sicherlich wird der Algorithmus nicht öffentlich gemacht und liegt euch nicht vor, aber diese Information hätte ja auch schon gereicht :daumen:

Das verlinkte PDF habe ich mal quer gelesen und dort sind auch alle Informationen enthalten, z. Bsp.:
- Die Definition (der Forscher) von antisozialem Verhalten
- Die Methode der Untersuchung antisozialen Verhaltens.

Soweit ich es richtig verstehe bewerten sie die ersten 10 Posts eines Users (an Hand der vorher aufgestellten Kriterien) und haben damit die knapp 80%ige Trefferwahrscheinlichkeit.
 
Zuletzt bearbeitet:
Zurück