Open Password Archiv Logo

Anzeige






Open Password – Mittwoch, den 28. Juni 2017

# 217

Fact Checking – Fake News – Albrecht Ude – Donald Trump – Matthias Döpfner – BDZV – netzwerk recherche – Facebook – Twitter – Aufmerksamkeits-Ökonomie – Informationsprofis – bunddeutscherjuristen.org – Textkritik – Bildkritik- Wikipedia – DFKI – News Verifier – Andreas Dengel

Medienkritik und Medienanalyse

Fact Checking gegen „Fake News“:
„Die Ente bleibt draußen!“

Von Albrecht Ude

Sind Quellenprüfung und Fact Checking die Waffen gegen „Fake  News“? Nicht so, wie sie bislang verwendet werden. Für treffsichere Faktenprüfung muss man tiefer graben. Das aber ist nichts für Laien, Informationsprofis sind gefordert.

„Fake News“ sind in aller Munde. Sie sind eines der derzeitigen Aufregerthemen, ganz besonders so kurz vor den Wahlen. Aber „Fake News“, was ist das? Darunter wurden einmal vorsätzlich falsche Nachrichten verstanden, also mit einem kurzen alten Wort gesagt: Lügen. Spätestens seit aber Donald Trump einen Reporter von CNN („Cable News Network“) als „You are Fake News“ verunglimpft hat, ist das Wort eine bedeutungslose Hülse geworden. Ein diffamierender Kampfbegriff. „Fake News“, das machen immer nur die anderen. Und auch nur die Anderen glauben ihnen:

„Du fällst nicht auf Fake News rein, ich auch nicht
aber die normalen Leute in der Provinz, die tun das.“

Soweit ein Zitat, dass ich kürzlich in einer Berliner Eckkneipe erlauschte. (Besonders bemerkenswert ist, dass sich da jemand in Berlin über die Provinz erhebt – was ist Berlin anderes?)

Vielleicht ist die einzige noch brauchbare Beschreibung des Phänomens: „Fake News … is news I do not like!“ Mithin hochgradig subjektiv.

Andererseits: Das Problem falscher Nachrichten gibt es ohne Zweifel. Jetzt nicht verstanden als der schlichte Irrtum oder der banale Flüchtigkeitsfehler. Die sollen halt nicht vorkommen, aber das passiert eben doch und permanent – errare humanum est.

Auch Lügen, vorsätzlich und im vollen Unrechtsbewußtsein verbreitete Unwahrheiten sind kein modernes Phänomen: Schon zu Zeiten von Till Eulenspiegel und später dem Freiherrn von Münchhausen war das ein alter Hut.

„Das hat es schon immer gegeben. Es wurden seit Hunderten von Jahren auf dem Gemüsemarkt oder nach drei Bieren in der Kneipe Unwahrheiten gesagt und Gerüchte verbreitet. Im Zeitalter sozialer Medien bekommt das allerdings eine andere Wirkung. Jeder kann es sehen. ‚Fake News‘ ist eben nicht professioneller Journalismus, sondern genau das Gegenteil.“

Soweit Mathias Döpfner, Präsident des Bundesverbandes Deutscher Zeitungsverleger (BDZV) im dpa-Interview [1]. Auffällig ist der Gegensatz, den er zwischen „Fake News“ und „professionellem Journalismus“ konstruiert. Er nimmt die Medien bei der Verbreitung von Unwahrheiten und Gerüchten aus.

Vielleicht sollte der Mann mal einen Blick ins Bildblog [2] werfen oder ein Abo bei ÜberMedien [3] eröffnen, das kostet nur 3,66 Euro pro Monat, „Peanuts“. Oder sich über die diesjährige Verleihung der „Verschlossenen Auster“ informieren. Der Negativpreis der Journalistenvereinigung netzwerk recherche e.V. für den „schlimmsten Informationsverhinderer des Jahres“ wurde am 10. Juni an die Regenbogenpresse verliehen – stellvertretend an die Verlagsgruppen Funke Mediengruppe, Hubert Burda Media Holding und Bauer Media Group. Die „Laudatio“ und die Entgegnungen der Verlage sind lesenswerte Kabinettstücke für die Chuzpe von Medien, deren gut funktionierendes Geschäftsmodell es ist, eine flexible Beziehung zur Wahrheit zu pflegen [4].

„Fake News“, das machen immer die Anderen. Aus der Perspektive der etablierten Medien meint das: Wir doch nicht, Fake News suche man bitte in den sozialen Medien, bevorzugt bei Facebook und Twitter.

Und da gibt es in der Tat etwas Neues: In sozialen Medien existieren Nachrichtenströme, an denen die etablierten Medien keinen Zehntelcent mitverdienen. Aber die Zehntelcents sprudeln überreichlich, und sie machen Facebook und Google zu hochprofitablen Unternehmen.

Fake News bringen unglaublich viel Geld, sie sind ein ganz normales, reichweitengetriebenes, werbefinanziertes Geschäftsmodell. Sie sind digitaler Kapitalismus, oft als „Aufmerksamkeitsökönomie“ bezeichnet.

Während des US-Wahlkampfes haben Jugendliche in der mazedonischen Kleinstadt Veles angeblich etwa 140 Fake-News-Seiten angemeldet. Deren Optik ähnelte der von „echten“ Nachrichtenseiten, nicht aber die Inhalte. Ein Interesse am Wahlkampf oder gar dessen Ausgang hatten die Jugendlichen keines, sie wollten nur verdienen. Inspirieren ließen sie sich von den Gerüchten auf Facebook. Dann publizierten sie ihre Geschichten, die die Gerüchte bestätigten, auf ihren Websites und auf Facebook. Das Geld kam je nach der Menge der Klicks von Facebook oder durch Google Ads. Und es kam viel Geld, nicht nur nach mazedonischen Maßstäben.

Sollte man diese Jugendlichen verurteilen? Wofür? Dafür, dass sie verstanden haben, wie die Wirtschaft heute funktioniert? Und dass nicht der Wahrheitsgehalt Geld bringt, sondern die Menge der Klicks? Das kann man diesen Entrepreneuren aus Mazedonien und ihren Startups nicht wirklich vorwerfen. Sie haben sich genau so verhalten, wie es jeder neoliberale BWL-Professor empfehlen würde.

_______________________________________________________________________

Was tun?

________________________________________________________________________

Befriedigend ist diese Lage nicht. Es gibt immer mehr „Fake News“, und das wird wohl auch so bleiben. Weil sich das eben ökonomisch lohnt. Also: Was tun? „Fake News“ verbieten, wie es gerade in Deutschland gern gefordert wird? Das führt wie jede Zensur nur zu einer uralten Frage: „Quis custodiet ipsos custodes?“ – Wer bewacht die Wächter (Juvenal, Satires VI, Zl. 347–348)?

Verbieten ist keine Lösung, jedenfalls keine für eine Demokratie und eine offene Gesellschaft.

Was gehen kann, ist „Fact Checking“, das transparente, nachvollziehbare Überprüfen von Quellen und Fakten. Das Fach, eigentlich eine Kernkompetenz des Journalismus und der Dokumentation, hat eine lange Zeit der „Kostenoptimierung“ (vulgo: Kaputtsparen) hinter sich und erlebt gerade einen Boom, so dass man sich verwundert die Augen reibt.

Anleitungen zum Fact Checking werden mehr und mehr geschrieben, darunter viele, die sich an die Leser (der „Fake News“) richten.

Darin liest man zuweilen Sätze von atemberaubendem Scharfsinn, hier nur einige Beispiele:

– „Seien Sie skeptisch!“ – die Tautologie lässt grüßen: Wäre ich nicht skeptisch, finge ich mit Fact Checking gar nicht erst an.

– „Hören Sie auf Ihr Bauchgefühl!“ – mit besten Empfehlungen vom Oxymoron: Bauchgefühl hat beim Faktenprüfen definitiv nichts verloren.

– „Fragen Sie einen Experten“ Als „Experten“ werden unter anderem „Mitarbeiter von Behörden“ genannt: Satanas! Da bekommt man als Journalist schon mal Schluckauf.

Aber mal ernsthaft: Fact Checking ist das Überprüfen von Fakten und Behauptungen, die eben auch prüfbar sind. Das ist zuweilen kniffelig: „Donald Trump hat die Unwahrheit gesagt!“ Ja, das kann man in vielen Fällen beweisen.

„Donald Trump ist ein Lügner!“ Das impliziert, dass er um die Unwahrheit wusste und sie vorsätzlich verbreitet hat. Ob Donald Trump als „Liar“ bezeichnet wird, diese Frage entscheidet bei der New York Times allein der Chefredakteur. Denn der muss die Entscheidung auch verantworten.

Fact Checking ist kein Opinion Checking. Fakten kann man prüfen, Meinungen nicht („Comment is free“). Faktenprüfung hilft nicht gegen Hassrede. Nur, wenn die Hassmeinungen erkennbar auf falschen Fakten basieren, kann man ansetzen. Vor allem aber: Fakten-Check ist Expertenarbeit und wird es bleiben. Sicher ist es gut und richtig, die Medienkompetenz von „normalen Lesern“ zu heben. Aber das hat seine Grenzen.

Auch Experten scheitern oft genug am Prüfen von Fakten und Quellen, gerade im digitalen.

2006 verbreitete die Website bunddeutscherjuristen.org die Lüge, ein Strafrichter des Bundesgerichtshofes habe die Folter gefordert – streng rechtsstaatlich selbstverständlich. Zahlreiche renomierte Medien fielen darauf herein. Die Website (sie ist bis heute online und bietet jetzt auch Hintergrundinformationen) ist von vorne bis hinten gefälscht, aber man hätte jederzeit prüfen können, wer die Domain bunddeutscherjuristen.org registriert hat. Wenn man weiß, wie das geht, dauert das mit Heißgetränk dabei zwei Minuten. Niemand kann sich herausreden, es habe die Zeit dafür gefehlt. Die darauf hereinfielen, wussten das offenbar nicht.

2017 berichteten etliche, auch internationale Medien über die „CDU. Mit. Gefühl.“ Die CDU in Schwenke hatte eine Petition initiiert, die begann mit den Worten „Die christliche Wählerbasis der CDU fordert Kanzlerin Angela Merkel auf, einen Verzicht von Kleinwafffenexporten in Deutschland durchzusetzen.“ Schwenke ist ein Ortsteil der Stadt Halver in Nordrhein-Westfalen, aber einen eigenen CDU-Ortsverein gibt es dort nicht. Und wieder hätte ein kurzer Blick in die Domaindaten sofort zu Skepsis geführt.

In den USA fielen unter anderem Fox News und die New York Times, in Deutschland die AfD auf den Fake herein.

Das liegt auch daran, dass viele Fact Checker die Produktionsverhältnisse nicht im Blick haben und die technische Ebene des Internet nicht ausreichend kennen. Weil sie sich nur mit Texten und Bildern beschäftigen, als stünden diese ohne jedes Trägermedium als „Ding an sich“ im Raum.

Im Internet ist ein Text stets Teil einer Datei. Ein Bild ist immer eine Bilddatei. Diese Dateien kommen von einem Sender (meist einem Webserver) durch bestimmte Techniken (so genannte Protokolle) auf unseren Computer und werden durch Programme (meist Browser) so dargestellt, wie wir sie dann sehen.

Dazu kommt, dass man bei Dateien immer drei Arten von Daten beachten und prüfen muss: die Inhalte der Datei (Text, Bild, Audio oder Video), die Metadaten (versteckte Daten innerhalb der Datei) und die externen Daten (die nicht Teil der Datei sind).

Aus der Perspektive der Prüfung von Quellen und Fakten ist es ein gravierender Unterschied, woher Texte und Bilder stammen: Von einer „normalen“ Website? Oder aus einem Posting bei Facebook, anderen sozialen Netzen oder Foren? Aus der Wikipedia? Oder ist der Text als Message oder E-Mail zu uns gelangt?

Mit diesem Thema sind die meisten normalen Nutzer und auch viele Journalisten sozusagen digital überfordert. Denn digital ist alles fälschbar, aber nicht alles gleich leicht.

Wenn man einen Text auf faktische Richtigkeit prüfen will, gibt es zunächst die ganz normalen Fragen der Textkritik:

Wer ist der Autor? Ist er genannt, vielleicht sogar bekannt als Autorität? Vielleicht auch bekannt für eine bestimmte Haltung oder Vorurteile? Hat er eine eigene Homepage? Um solche Fragen zu klären, leisten die bekannten Suchmaschinen wie Bing, Google und Yandex gute Dienste, ebenso Metasuchmaschinen wie Metager und IxQuick.

Wie lautet der Text, insbesondere die Überschrift? Mit den genannten Suchmaschinen kann man schnell nachschauen, ob der Text möglicherweise häufiger publiziert ist, so dass man die Frage stellen muss, welche Version das Original ist. Das kann man nicht nur mit der Überschrift, sondern auch mit besonders charakteristischen Sätzen oder Formulierungen testen. Ebenso kann man schauen, wer den Text zitiert und wie er bewertet wird.

Weitere Fragen an Texte:

–  Worum geht es überhaupt?

–  Ist der Stil erkennbar ironisch oder eine Satire?

–  Für wen ist der Text geschrieben?

–  Ist die Argumentation plausibel?

–  Ist die Information stabil?

–  Sind die Zitate im Text korrekt?

–  Welcher Standpunkt / welches Vorurteil wird vertreten?

–  Sind Kriterien für den Ein- oder Ausschluss von Informationen genannt und gleichfalls plausibel?

–  Kann man Fakten im Text verifizieren?

Diese Fragen sollte jede und jeder mit einer soliden Schulbildung stellen und auch beantworten können. Doch schon diese einfachen Checks brauchen eine gewisse Zeit. Und dann beginnen die Besonderheiten des Netzes. Beispielsweise stellt sich die Frage, wo der Text erschienen ist – auf einer Webseite, als Posting in einem sozialen Netz, als Artikel in einem Wiki oder als Text in einer E-Mail?

Die Methoden und Werkzeuge für eine kritische Prüfung unterscheiden sich jeweils. Bei einer normalen Website etwa muss man nachschauen, wem die Domain gehört und wer dafür verantwortlich ist. Für diese Whois-Records (sie gehören zu den eben erwähnten externen Daten) gibt es spezielle Datenbanken, bei Google und anderen Suchmaschinen findet man sie nicht.

Ebenso prüfe man bei Websites, ob es ein Impressum gibt* und ob dessen Kontaktdaten korrekt sind. Gibt es Hinweise auf die Finanzierung*, ggfs. Informationen über Sponsoren?* Falls ja, was ist deren Interesse? (Überall, wo ich ein Sternchen setze, muss man die Netzfunde so abspeichern, dass sie nötigenfalls vor Gericht als Belege eingesetzt werden können – womit ein weiteres Expertenthema angesprochen ist, ein einfacher Screenshot reicht nicht).

Man sollte nach älteren Versionen* der Website schauen, den Quellcode und die Metadaten analysieren, einen Blick in die robots.txt* werfen. Weitere Recherchemöglichkeiten bieten die Webadresse, der Webserver und dessen Vernetzung. Aber jetzt sind wir schon sehr tief im Maschinenraum.

Ganz anders bei einem Text oder einer Datei aus Facebook. Viele der soeben geschilderten Recherchewege sind hier nutzlos: Beispielsweise gehört die Domain facebook.com der Facebook Inc. in Menlo Park, Kalifornien, USA – das muss man nicht jedesmal prüfen. Dafür kann und muss man bei jedem sozialen Netz den Account prüfen, von dem Texte und Dateien stammen.

Ist der Account verifiziert? Wie alt ist er, wie hoch die Aktivität? Wie vernetzt ist er, also wie viele Freunde*, Follower* oder Kontakte* hat er? Was erfährt man über den Betreiber*, hat der möglichweise weitere Accounts in anderen sozialen Netzen?

Wie weit im Einzelnen diese Recherchen gehen können, hängt von dem jeweiligen sozialen Netz ab – welche Recherchemöglichkeiten es selbst bereitstellt, welche von externen Programmieren angeboten werden. Klar ist aber: Für jedes Netz, das man recherchieren möchte, braucht man einen Account, wenn man es ernst meint.

Noch anders ist die Situation bei der Wikipedia: An jedem Artikel hängt eine Versionsgeschichte, mit der man jede(!) Änderung am Artikeltext nachvollziehen kann – wann sie geschah, und wer sie vorgenommen hat. Ebenso haben fast alle Artikel eine Diskussionsseite, auf der sich die Bearbeiter beraten können – eine Fundgrube an Informationen, um den Text bewerten zu können.

Überhaupt hängt an jeder frei editierbaren Seite der Wikipedia eine maschinell erstellte History-Seite. Aber wer all diese Spuren auswerten will, braucht eine Menge Zeit und auch Erfahrung. Da ich selbst Seminare zu diesen Themen gebe, weiß ich um die Hemmschwellen und Fallstricke solcher Untersuchungen.

Noch schwieriger ist die Analyse von Texten aus Messages oder E-Mails. Neben der Textkritik bleiben hier fast nur noch Metadaten.

Bei Bildern hat man die Daten, die Bildinhalte. Dabei solle man immer auch auf Unpersönliches im Hintergrund achten, Automodelle und Kfz-Kennzeichen, Gebäude, Kleidung, Schilder usw. Viele Suchmaschinen ermöglichen es, nach gleichen oder ähnlichen Bildern im Netz zu suchen („Reverse Image Search“).

Viele Grafikprogramme ermöglichen das Ansehen der Metadaten von Bildern. Zudem sollte man immer einen kritischen Blick auf den URL (Uniform Resource Locator, umgangssprachlich: die Webadresse) des Bildes werfen.

Damit nicht genug: Prüfen kann man ebenso Personen, Hyperlinks, Datums- und Ortsangaben. Man kann an sehr vielen Stellen graben, was aber Verständnis für die Technologie des Netzes, Kenntnis der Werkzeuge und Beherrschung der Methoden braucht. Ausreichend Zeit und Willen ohnehin.

Das kann bei einfachen Medienkonsumenten nicht vorausgesetzt oder gar von diesen verlangt werden. Bedauerlicherweise ist solches Wissen selbst unter Informationsprofis selten.

Was helfen kann, ist Automatisierung: Im April stellte das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) eine Entwicklung namens „NewsVerifier“ vor [5]. Das wird ein Add-on, also ein Zusatzprogramm für Webbrowser werden. Einmal installiert, arbeitet es im Hintergrund und untersucht die Bilder auf den Webseiten, die der Nutzer gerade liest. Es prüft, ob diese möglicherweise bereits früher auf anderen Webseiten (und in ganz anderem Zusammenhang) veröffentlicht wurden oder ob die Bilder vielleicht manipuliert sind.

Nach Auskunft von Prof. Dr. Andreas Dengel, dem Standortleiter des DFKI in Kaiserslautern funktioniert das, indem das Bild mit anderen, frei zugänglichen Bildern verglichen wird. Solche Bildsammlungen sind etwa das Bildportal Flickr, das zu Yahoo gehört. Dabei werden auch die Metadaten (die versteckten Daten) der Bilder ausgewertet, zum Beispiel der Zeitstempel. Das Programm wird auch die Texte der Webseiten beachten, auf denen die fraglichen Bilder angezeigt sind.

Nutzer des Programmes, das in den nächsten Wochen veröffentlicht werden soll, werden so auf die Bilder und Webseiten hingewiesen, die sie besonders kritisch hinterfragen sollten. Dieses System hilft also normalen Nutzern und Profis, Manipulationen leichter zu erkennen.

Albrecht Ude arbeitet seit zwanzig Jahren als Journalist, Researcher und Recherche-Trainer. Eines seiner Spezialgebiete sind Quellenprüfung und Fakt-Checking.- mailto:albrecht@ude.de – http://www.ude.de/

Hyperlinks

[1] Döpfner: Facebook muss Probleme mit „Fake News“ selbst lösen – Interview von Antje Homburger und Esteban Engel, dpa. – heise online, 1. Februar 2017 -https://www.heise.de/newsticker/meldung/Doepfner-Facebook-muss-Probleme-mit-Fake-News-selbst-loesen-3614579.html

[2] Bildblog – Kritisches über Deutsche Medien – http://bildblog.de/

[3] ÜberMedien – Medien besser kritiseren – http://uebermedien.de/

[4] netzwerk recherche : Verschlossene Auster 2017 für die Regenbogenpresse – https://netzwerkrecherche.org/blog/kategorie/nr-jahreskonferenz-2017/

[5] Wenn die Bilder lügen – KI-System entlarvt Fake News im Internet – DFKI, 20. April 2017 -https://www.dfki.de/web/presse/pressemitteilung/2017/newsverifier

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.