ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Startseite
  Neuigkeiten
  Historie
  Pressestimmen
  Redaktion
  Kontakt
  Sitemap
  Haftungsausschluss
  Impressum


SCHLAGZEILEN

04.12.2017
Mit KI gegen die Lügenpresse (Heinz Schmitz)

Ein Algorithmus berechnet, welche Nachrichten wann von Social Media Plattformen wie Facebook zur Überprüfung ihres Wahrheitsgehalts gegengecheckt werden sollten. Nicht bei jeder Fake-News lohnt es sich, die Wahrheit zu recherchieren – nur die mit Lauffeuer-Potential sollten herausgefiltert werden, meinen die Erfinder.

„Wir optimieren den Prozess, wann welche Geschichte im Netz auf ihren Wahrheitsgehalt geprüft wird. So werden weniger Leute Fake News ausgesetzt, die vielleicht gar nicht wissen, dass es sich bei dem ein oder anderen Post um eine Lügennachricht handelt“, erklärt Manuel Gomez Rodriguez. Er ist Wissenschaftler am Max-Planck-Institut für Software Systeme in Kaiserslautern, und ehemaliger Doktorand am Max-Planck-Institut für Intelligente Systeme in Tübingen. Dort machte er seinen Doktor in der Abteilung für Empirische Inferenz. Gomez ist Mitautor einer wissenschaftlichen Publikation mit dem Titel „Sich der Masse bedienen, um Fake News und Fehlinformationen aufzudecken und ihre Verbreitung einzuschränken“. Das zeitgerechte Thema wurde bei einer wichtigen Branchenkonferenz als Vortragsthema angenommen.

Um einschätzen zu können, welche Nachricht eine Falschmeldung ist, setzen Gomez und seine Kollegen Jooyeon Kim, Behzad Tabibian, Alice Oh und Bernhard Schölkopf, Direktor der Abteilung für Empirische Inferenz am Max-Planck-Institute für Intelligente Systeme in Tübingen, auf die Masse – genau wie Facebook, Twitter oder Weibo. Facebook Nutzer zum Beispiel haben laut den Nutzungsbedingungen der Plattform die Möglichkeit, eine Nachricht als Falschmeldung zu deklarieren. Erhält Facebook eine ausreichende Anzahl an Warnhinweisen (Angabe über die genaue Anzahl macht Facebook nicht), dann kommt ein Netzwerk aus unabhängigen Rechercheteams ins Spiel, Journalisten, die als objektive Dritte Partei fungieren und Nachrichten gewissenhaft gegenchecken. Diese Teams sind alle Unterzeichner des Grundsatzkodexes des gemeinnützigen Poynter´s International Fact-Checking Networks (www.poynter.org). Enthüllen diese Rechercheteams eine Story als fake, dann zeigt Facebook seinen Nutzern an, die Geschichte sei strittig.
Ein Link führt zu einem Artikel, in dem erklärt wird, warum die Journalisten zu diesem Schluss gekommen sind. Nachrichten, die umstritten sind, könnten laut Facebook auch weiter unten im sogenannten News Feed des Nutzers erscheinen.

Für Manuel Gomez und seine Wissenschaftskollegen geht dieser Ansatz nicht weit genug. Nicht nur die Anzahl an Meldungen durch die Nutzer sollte darüber entscheiden, wann die Journalisten ihre Arbeit aufnehmen. Wenn eine Geschichte keine Wellen schlägt – warum dann wertvolle Zeit und Ressourcen aufs Recherchieren verschwenden? Ob und wann eine Geschichte auf Herz und Nieren geprüft wird, sollte laut den Wissenschaftlern vielmehr dann stattfinden, wenn die Wahrscheinlichkeit hoch ist, dass sich die Geschichte schnell im Netz verbreitet. Schließlich ist das Schadenspotential eines Online-Hypes viel größer. Die Gegenrecherche sollte also dann initiiert werden, wenn es sich mit hoher Wahrscheinlichkeit um eine sogenannte virale Nachricht handelt – selbst dann, wenn nur wenige Nutzer diese als Falschmeldung deklariert hatten.

„Wenn unser Algorithmus berechnet, dass eine Geschichte eine große Reichweite haben wird, prüfen wir eine Geschichte auf ihre Echtheit lieber gleich, bevor sie ein größeres Publikum findet – nur um sicher zu gehen, dass es keine Fake News ist“, argumentiert Gomez. „Wenn etwas nicht viral geht, kann man abwarten und erst bei weiteren Warnhinweisen der Nutzer aktiv werden. Es ist alles eine Frage der Ressourcen: nicht jede Nachricht kann gegengeprüft werden. Wir müssen uns die rauspicken, die das größte Risiko tragen, sich wie ein Lauffeuer zu verbreiten.“

Die Wissenschaftler schauen sich das Verhalten eines Nutzers in der Vergangenheit an und ziehen daraus Schlüsse, wie oft und wie schnell eine Story voraussichtlich geteilt werden wird. Sie untersuchen dabei, wie Millionen von Nutzern und deren Follower die Geschichten auf Social Media teilen. Diese historischen Daten fließen ein in die Berechnung des Algorithmus, und zusätzlich wie eine Nachricht aufgenommen wird in dem Moment, in dem sie gepostet wird. Ist die Reaktion der Nutzer umgehend sehr hoch, klingen die Alarmsirenen lauter als wenn die Nachricht zu anfangs nur wenig geteilt wird. Der Algorithmus passt sich dem Nutzerverhalten an – und ist damit (künstlich) intelligent.

Gomez hofft, dass Social Media Plattformen seinen Algorithmus, den er CURB („curb“ bedeutet auf Deutsch so viel wie „drosseln“ oder „zügeln“) getauft hat, eines Tages einsetzen werden. „Um das zu erleichtern, werden wir den Quellcode unseres Algorithmus veröffentlichen, verschiedene Datensätze und eine Webseite ins Leben rufen. Nichtsdestotrotz, CURB hat seine Grenzen, gibt der Wissenschaftler offen zu. Der Algorithmus löse nicht das Problem, was als nächstes passiert, wenn eine Geschichte geprüft und als fake eingestuft wurde. „Lässt du die Geschichte laufen, kommen viele Leute mit ihr in Kontakt. Nimmst du sie aus dem News Feed der Nutzer, setzt du dich dem Vorwurf aus, das Netz zu zensieren“, sagt Gomez.

Beim Thema Fake News und wie man damit umgehen sollte, scheiden sich die Geister. Am Ende liegt die Bewertung darüber, was echt und was erfunden ist, bei jedem Menschen selbst.

Siehe auch:
http://learning.mpi-sws.org/curb/
http://www.heinz-schmitz.org



zurück zum Archiv

Druckversion Impressum Haftungsausschluss