Open Password Archiv Logo

Anzeige






Open Password – Dienstag,
den 22. November 2019

# 666

Zukunft der Informationswissenschaft – Willi Bredemeier – Simon Veralg für Bibliothekswissen – Metadaten – Falschmeldungen – Fake News – Elias Johannes Panskus – Populismus – Türkei – Österreich – Flüchtlingskrise – AfD – Claude Shannon – Warren Weaver – Gesellschaftsvertrag – Rainer Kuhlen – Dublin Core Metadata Initiative – METS – Donald Trump – Soziale Medien – Bundestagswahl 2017 – Correctiv – Facebook – ARD – ZDF – Faktenchecks – FactCeck.org – Brexit – Russland – Wahrheit – Ethan Zuckermann – MIT – International Press Telecommunication Council – Bildagenturen – William Wang – University of California – LIAR – Politifact.com – Social Bots – Informationskompetenz – Wolfgang Schweiger – Steilvorlagen für den Unternehmenserfolg – Elevator Pitch – Alexander Klaus – Datenkompetenz – Wolfgang Kobek – Künstliche Intelligenz – Augmented Intelligence – Data Analytics – Plattform – Insights

Simon-Verlag für Bibliothekswissen

Zukunft der Informationswissenschaft

Hat die Informationswissenschaft
eine Zukunft?

Herausgegeben von Willi Bredemeier – Simon Verlag für Bibliothekswissen, Berlin 2019 – Weitere Veröffentlichungen in Open Password (laufend) sowie Open-Access-Publikation auf der Webseite einer branchenrelevanten Einrichtung (in Kürze)

  1. Teil: Die Ausgangspunkte einer informationswissenschaftlichen Debatte in Open Password: Briefe von Walther Umstätter und Winfried GödertII. Teil: Grundsätzliche Kritiken an der Informationswissenschaft

    III. Teil: Die Suche nach einem Bezugsrahmen

  2. Teil: Wissenschaftliche Bibliotheken
  3. Teil: Aus der informationswissenschaftlichen Lehre
  4. Teil: An den Forschungsfronten der Informationswissenschaft

An den Forschungsfronten der Informationswissenschaft

VI.1 Online Marketing
VI.2 User Experience
VI.3 Suchmaschinen

VI.4 Fake News

Fehl-, Falsch- und Desinformation als informationswissenschaftliche Herausforderung – Von Stefan Hauff-Hartig

Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum – Eine praktische Annäherung – Von Elia Johannes Panskus

Fake News: Unbelehrbar in der Echokammer? – Von Franziska Zimmer

VI.5 „Smart City“ und „Smart Country“
VI.6 Digitalisierung
VI.7 Forschungsinfrastruktur

Zukunft der Informationswissenschaft
– Hat die Informationswissenschaft eine Zukunft?

Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum*

 

Eine praktische Annäherung


Von Elia Johannes Panskus

 Elia Johannes Panskus (l.) mit Verlegerin Elisabeth Simon und
Autor Stefan Hauff-Hartig auf der Veranstaltung „Zukunft der Informationswissenschaft – Hat die Informationswissenschaft eine Zukunft?“ an der TU Berlin

________________________________________________________________________

Einführung
________________________________________________________________________

In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.

Dieses Misstrauen ist ein Nährboden für Fake News. Als 2015 die sogenannte Flüchtlingskrise ihren Höhepunkt erreichte, sorgte das in Deutschland für eine Vielzahl an Falschmeldungen, vor allem im digitalen Raum. Dies trug zum Erstarken der Partei Alternative für Deutschland bei, die mittlerweile in allen Landesparlamenten einzog, teilweise sogar als zweitstärkste Kraft.

(Fast) jeder Einzelne ist heute durch die Anbindung an soziale Netzwerke ein Knotenpunkt der vernetzten Öffentlichkeit und könnte seine Meinung leicht einer großen Öffentlichkeit kundtun. Das Kommunikationsmodell Sender-Empfänger, erstmals von Claude SHANNON und Warren WEAVER[2] verwendet, wird auf die Spitze getrieben und insoweit ergänzt, als auch viele Empfänger zum Sender geworden sind. Der Gesellschaftsvertrag, den wir in Deutschland lange als Basis unseres Handels begriffen haben und der unter anderem eine gemeinsame Faktenbasis zu seiner Voraussetzung hat, gilt für viele Teile unserer Gesellschaft nicht mehr. Der Unterschied zwischen Fakten und Fake scheint zu verschwimmen.

Neu ist das Phänomen Fake News nicht. Die früheste Verwendung des Wortes protokollierten die Bundestagsstenografen bereits 2010[3]. In einer Zeit, in der sogenannte Fake News beinahe schon zur Normalität gehören, Staaten versuchen, mittels Falschnachrichten und der Verdrehung von Tatsachen Wahlen zu beeinflussen und Parteien mittels gezielter Falschmeldungen Wähler manipulieren, sollte nach einer schnellen und wirksamen Lösung zur Identifizierung dieses Phänomens gesucht werden. Diese Lösung könnten Metadaten liefern.

Metadaten spielen in den Informationswissenschaften eine wichtige Rolle. Die ersten Metabeschreibungen etablierten sich für Dokumente in Bibliotheken. Aus Sicht der Informationswissenschaften kommt den Metadaten vor allem die Rolle der inhaltlichen Erschließung zu. Wie Rainer KUHLEN zusammenfasst, benötigen Datensätze in relationalen Datenbanksystemen, Ausprägungen gängiger XML-Anwendungen und Referenzdatenbestände im Bereich der Informationswissenschaften eine Beschreibung ihrer inneren Struktur[4]. Bekannte Beispiele hierfür sind der Standard der Dublin-Core-Metadata-Initiative zur inhaltlichen Erschließung informationeller Einheiten und der Metadata Encoding & Transmission Standard (METS).

Entstanden ist die Idee, mit Hilfe von Metadaten Falschmeldungen im digitalen Raum zu identifizieren, aus der Erfahrung der Wahl Donald Trumps zum 45. Präsidenten der Vereinigten Staaten und mit Blick auf die Bundestagswahl im September 2017.

Viele der Falschmeldungen im amerikanischen Wahlkampf wurden durch Bilder, Videos und andere Medien gestützt, um im schier endlosen Raum der Sozialen Medien besser Gehör zu finden. Diese Medien sind in den meisten Fällen mit Metadaten beschrieben, die bei Auslesung derselben die Herkunft, den Urheber, den Ort und andere wichtige Informationen zum Medium preisgeben.

Um diese Annahme zu untersuchen, wurden mehrere Interviews mit Experten durchgeführt. Ausgewählt wurden Experten, die genügend Fachkenntnisse besitzen, um über Falschmeldungen im digitalen Raum Auskunft zu geben. Es wurde darauf geachtet, dass die Experten stellvertretend für ihren Bereich sprechen können. Diese Experten waren tätig für:

  • CORRECTIV – Recherchen für die Gesellschaft gemeinnützige GmbH
  • SPIEGEL-Verlag Rudolf Augstein GmbH & Co. KG, Textdokumentation
  • SPIEGEL-Verlag Rudolf Augstein GmbH & Co. KG, Bilddokumentation
  • HMS Hamburg Media School GmbH.

________________________________________________________________________

Systematisches Prüfen von Fakten einer großen Zahl von Nachrichten in Deutschland und den USA
________________________________________________________________________

Im Vorfeld der Bundestagswahl 2017 war die Prüfung von Fakten in sozialen Netzwerken in Deutschland zunächst eine Neuheit. Im April begann dann das Recherchezentrum CORRECTIV im Auftrag von Facebook das soziale Netzwerk nach Fake News „händisch“ zu durchforsten und diese zu kennzeichnen. Allerdings ist CORRECTIV nach eigener Aussage bisher der einzige Medienpartner, den Facebook dafür gewinnen konnte. Die Zusammenarbeit soll aber ausgebaut werden. Auch „etablierte“ Medien in Deutschland wie das Erste Deutsche Fernsehen und das ZDF begannen eigene Programme zur Faktenprüfung.[5]

Systematische Faktenchecks einer großen Zahl von Nachrichten, das war 2017 in Deutschland eine Neuheit. Anders in den USA, wo die Aussagen der Wahlkämpfer radikaler, böswilliger und stärker von Unterstellungen gekennzeichnet sind.  Zusätzlich zeigen Untersuchungen, dass 62 Prozent der erwachsenen Amerikaner ihre Nachrichten über soziale Medien beziehen.[6] In den Sozialen Medien sind aber Faktenchecks auch für einzelne Behauptungen eher untypisch. So lassen sich in den USA schon um 1950 die Anfänge eigenständiger professioneller Faktenprüfung beobachten. Ein Vorreiter der modernen Faktenprüfung entstand 2003 in den USA mit der Plattform FactCheck.org für Behauptungen im digitalen Bereich.  Im US-Wahljahr 2016 war das Thema Faktenprüfung aus der Öffentlichkeit nicht mehr wegzudenken. Der Wahlkampf zwischen dem späteren Gewinner Donald Trump und Hillary Clinton war geprägt von Falschaussagen, falschen Fakten und Verzerrungen – diese vor allem aus dem Trump-Lager und von Donald Trump selbst.

Auch die knappe Entscheidung in Großbritannien zugunsten eines Brexits wurde durch den Einsatz von „Fake News“ wahrscheinlich durch die russische Regierung beeinflusst.

________________________________________________________________________

Fakt, Wahrheit, Falschmeldung
________________________________________________________________________

Bevor Falschmeldungen mit Hilfe von Metadaten identifiziert werden können, müssen wir klären, was unter Falschmeldungen und damit auch unter „Fakt“ und „Wahrheit“ zu verstehen ist. Nach dem Deutschen Duden ist der Begriff „Fakt“ ein Synonym für „Tatsache“, die nicht anfechtbar ist beziehungsweise die bewiesen werden kann.

Dem Begriff „Wahrheit“ hingegen werden verschiedene Bedeutungen zugeschrieben wie beispielsweise die Übereinstimmung mit der Wirklichkeit, einer Tatsache oder einem Sachverhalt. Das englische Wort für Wahrheit, nämlich „Truth“, lässt sich mit „Wirklichkeit“ oder „Richtigkeit“ übersetzen. Die „Wahrheit“ ist also im Vergleich zum „Fakt“ leichter anfechtbar, weil sie häufig subjektiv wahrgenommen wird. Wahrheit wird zudem häufiger bewertend im Sinne von „moralisch besser“ verwendet.

Die folgende Definition für „Falschmeldungen“ orientiert sich an der Praxis von Wissenschaftlern und Journalisten:

„Falschmeldungen im Digitalen sind der Versuch der gezielten Beeinflussung des Denkens, Handelns und Fühlens von Menschen. Wer Falschmeldungen nutzt, möchte nicht diskutieren und mit Argumenten überzeugen, sondern mit allen Tricks die Emotionen und dass Verhalten der Menschen beeinflussen. Falschmeldungen im Digitalen werden über soziale Medien oder andere digitale Kanäle verbreitet. Sie gehen von Einzelnen oder Gruppen aus, die in eigenem oder fremdem Auftrag handeln. Falschmeldungen beinhalten sowohl gezielte falsche Tatsachenbehauptungen, gezielte Verzerrung von Fakten als auch eine gezielte übertriebene Fokussierung auf ein Thema. Falschmeldungen sind ebenfalls die gezielte Verbreitung von Nachrichten, die durch unbeabsichtigte schlechte Recherche, Irrtümer oder fehlerhafte Darstellung von Zusammenhängen durch die Urheber entstehen. Ziel von Falschmeldungen kann beispielsweise die Diskreditierung von Politikern sein oder die öffentliche Meinung zu manipulieren. Auch kommerzielle Interessen können ein Motiv für Falschmeldungen sein.“

Zusätzlich hat Ethan ZUCKERMANN vom Massachusetts Institute of Technology drei Formen von Falschmeldungen herausgearbeitet[7]:

  • Nachrichten, die einem bestimmten Thema übertriebene Aufmerksamkeit widmen • Propaganda
  • gezielte Desinformation.

Nach diesen Kriterien lässt sich eine klare Gliederung von Falschmeldungen vornehmen.

________________________________________________________________________

Metadaten als Schlüssel zur Identifizierung
________________________________________________________________________

Die Dublin Core Metadata Initiative definiert Metadaten speziell als Begriff des Internet-Zeitalters und zieht die Parallele zu Informationen, die Bibliothekare früher für ihre Sammlung genutzt haben, um diese zu beschreiben und zu katalogisieren. Von zentraler Bedeutung für Metadaten im Zusammenhang mit der Identifizierung von Falschmeldungen im Digitalen ist die folgende Aussage:

„[Metadaten] sorgen dafür, dass den Beschreibungen von Instanzen ein und derselben Ressourcenklasse eine einheitliche Struktur zugrunde liegt und erleichtern so das Suchen, Finden und Selektieren relevanter Ressourcen aus einer Vielzahl möglicher Ressourcen“[8].

Dokumente aller Art, also Bilder, Videos, aber auch Textdokumente besitzen häufig beschreibende Metadaten. Diese sind bei Bildern beispielsweise: Datum und Uhrzeit, Blende, Belichtungszeit, Brennweite, ISO-Wert, Blitzinformationen, Informationen zum Fotografen und zum Urheberrecht, Vorschaubild oder Geo-Informationen und Kamerawinkel. Nach dem Auslesen der Metadaten sind wir womöglich in der Lage zu sagen, wer dieses Bild gemacht hat, wo es aufgenommen wurde und zu welcher Zeit.

Aber wie sind die Metadaten in sozialen Netzwerken beschaffen? Häufig liegen bei Bildern in sozialen Netzwerken wie Facebook keine Metadaten vor. Eine Studie des International Press Telecommunications Council zum Umgang mit Metadaten von Fotos in sozialen Netzwerken zeigt, dass viele Metadaten nach dem Upload verloren gegangen sind oder unsichtbar gemacht wurden[9]. Die Studie kommt zu dem Ergebnis, dass Facebook, Flickr und Twitter Metadaten beim Veröffentlichen fast vollständig entfernen. Welche Metadaten können also auf Facebook gefunden werden und welche sind auch von „außen“ einsehbar? Tatsächlich löscht Facebook nach dem Hochladen von Bildern und Videos die dazu gehörenden Metadaten.

Dennoch können Facebook-eigene Metadaten extrahiert und genutzt werden. Ein üblicher Facebook-Post stellt die Informationen über den Urheber, das Datum der Einstellung und deren genaue Zeit zur Verfügung. Diese drei Metadaten lassen sich zweifelsfrei herausarbeiten. In einigen Fällen erscheint noch ein viertes Metadatum: das Geodatum. Dieses ist aber nur zu sehen, wenn der Ersteller des Beitrags aktiv seine Geodaten veröffentlicht.

Falschmeldungen mit Hilfe von Metadaten in sozialen Netzwerken zu identifizieren, ist also schwierig. Um herauszufinden, ob ein Bild mit dem beigefügten Text-Teaser eines Posts übereinstimmt, müssten die Original-Metadaten des Bildes verfügbar sein, die die meisten Netzwerke nicht mehr bereithalten. Die bereitgestellten Metadaten sind hingegen nicht ausreichend, um eine Falschmeldung anhand dieser Metadaten zu erkennen. Dies lässt sich als das zentrale Ergebnis dieser Arbeit festhalten.

Außerhalb sozialer Medien ist die Identifizierung von Falschmeldungen durch Metadaten häufig einfacher. Auf den meisten Websites werden Bilder verwendet, die mit Metadaten beschrieben sind, um also eine Überprüfung beispielsweise von Blogbeiträgen auf Authentizität und Echtheit zu ermöglichen. Aber die Existenz von Metadaten allein reicht nicht aus, um sich auf eine korrekte Identifizierung verlassen zu können. Denn wenn über Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum gesprochen wird, muss auch geklärt sein, wie vertrauenswürdig diese Metadaten sind. Die Antworten der befragten Experten dazu waren eindeutig: „Es ist nicht besonders schwierig, Metadaten zu verfälschen.“ Einen natürlichen Schutz dagegen bieten nur professionelle Bildagenturen, denen nach allen Erfahrungen Vertrauen zu schenken ist. Tatsächlich ist die Veränderung der Metadaten von Bildern vergleichsweise einfach. Die EXIF-Daten eines Bildes beispielsweise, die die Kamera selbst erstellt wie Aufnahmezeit, Datum und häufig auch der Ort, können schon verändert werden, indem Einstellungen an der Kamera vorgenommen werden.

________________________________________________________________________

Metadaten reichen für eine Identifizierung von Fake News nicht aus.
_____________________________________________________________________

Eine Identifizierung von Falschnachrichten im Digitalen ist mittels Metadaten nicht machbar. Zu viele Barrieren stehen einer Identifizierung im Wege. Metadaten sind innerhalb der meisten sozialen Netzwerke nicht mehr vorhanden oder nicht auffindbar. Bei einem Medium wie Facebook, in dem jeder zum Sender werden kann und unzählige Empfänger erreicht werden können, wäre eine Identifizierung von Falschmeldungen durchaus wünschenswert, allerdings verhindern nahezu alle sozialen Medien die Nutzung von Metadaten. Diejenigen Metadaten, die beispielsweise Facebook bereitstellt, sind nicht ausreichend noch glaubhaft genug, um eindeutig richtige Entscheidungen treffen zu können. Auch außerhalb von sozialen Medien fällt die Identifizierung von Entscheidungen sehr schwer.

Derzeit sind Forscher dabei, Algorithmen zu entwickeln, die eine Software-gestützte Faktenprüfung ermöglichen. Vor allem künstliche neuronale Netze bieten Möglichkeiten dafür. Der Computerwissenschaftler William WANG von der University of California (Santa Barbara) ist der wohl bekannteste Forscher im Bereich der maschinellen Faktenprüfung. Er hat eine mittlerweile öffentlich zugängliche Datenbank zur Erkennung von Falschmeldungen mit dem Namen LIAR entwickelt[10], indem er 12.800 Kurzstatements der Seite Politifact.com sammelte. Anhand von 10.000 Beispielen wurde dem künstlichen neuronalen Netz beigebracht, was Falschmeldungen sind. LIAR kam auf eine Erfolgsquote von 27%. Daher müsste der Mensch auch in diesem Fall die letzte Faktenprüfung vornehmen. LIAR ließe sich aber sinnvoll für eine Vorselektion nutzen.

Diesen und anderen Bemühungen zur Identifizierung von Falschmeldungen stehen die Professionalisierung der Generierung und Platzierung von Fake News und der zunehmende Einsatz von Social Bots in diesen Bereichen entgegen.
________________________________________________________________________

Gesellschaftspolitische Schlussfolgerungen
________________________________________________________________________

Diese aus politischer Sicht wenig zufriedenstellenden Ergebnisse legen indirekt nahe, die besondere Bedeutung journalistischer Medien als unabhängige und vertrauenswürdige Informationsquellen deutlicher anzuerkennen. Diese bieten den Bürgern aktuelle Nachrichten und politische Information mit dem Anspruch auf Wahrheit, Ausgewogenheit und Vielfalt und darüber hinaus einen Nachrichtenüberblick ohne eine Begrenzung durch Filterblasen. Allerdings wird den professionell gemachten Medien immer weniger Vertrauen entgegengebracht. Die klassischen Medien sollten daher noch stärker darauf achten, nach Wahrheit zu streben und Ausgewogenheit und Vielfalt zu garantieren.

Ferner legen die Ergebnisse nahe, dass Halbwahrheiten und Falschmeldungen auch durch Gesetze und eine stärkere Kontrolle von sozialen Netzwerken und Plattformen im Netz nicht verhindert werden können. Umso wichtiger wird das Erlernen von Informationskompetenz. Wolfgang SCHWEIGER fordert die Politik dazu auf, die Bildungspolitik entsprechend weiter zu entwickeln[11].

Gleichwohl wird uns das Phänomen „Fake News“ auch in Zukunft begleiten und wahrscheinlich noch an Bedeutung gewinnen.

Literatur

*  Dieser Beitrag basiert auf: PANSKUS, E: Metadaten zur Identifikation von Falschmeldungen im Digitalen – Masterarbeit, Potsdam 2017

1      BRÖSSLER, D.: Konflikt um Grundwerte gewinnt an Schärfe, 2018 (https://www.sueddeutsche.de/politik/die-eu-polen-und-ungarn-konfliktum-grundwerte-gewinnt-an-schaerfe-1.4030591), zuletzt aufgerufen am 4. September 2018

2      RÖHNER, J. & SCHÜTZ, A.: Psychologie der Kommunikation. 2. Auflage. Springer Verlag, Wiesbaden 2015, ISBN 978-3-658-10024-7, S. 21–23.

3      Bundestags-Plenarprotokoll 17/78 vom 2.12.2010 (http://dip21.bundestag.btg/dip21/btp/17/17078.pdf), letzter Zugriff am 4. September 2018

4      KUHLEN, R.: Grundlagen der praktischen Information und Dokumentation, De Gruyter, 2013, ISBN 978-3-11-025826-4

5      BUTZKE, A.: Alternative Fakten sind out – diese Redaktionen haben sich dem Faktencheck verschrieben, 2017 (https://meedia.de/2017/08/24/ alternative-fakten-sind-out-diese-redaktionen-haben-sich-dem-faktencheck-verschrieben/), zuletzt abgerufen am 4. September 2018

6      ALLCOTT, H. & GENTZKOW, M.: Social Media and Fake News in the 2016 election, National Bureau of Economic Research (Hrsg.), Cambridge 2017, S. 2.

7      ZUCKERMANN, E.: Fake news is a red herring, 2017 (http://www. dw.com/en/fake-news-is-a-red-herring/a-37269377), zuletzt abgerufen am 3. September 2018

8      The Dublin Core Metadata Initiative: What is Metadata, 2005 (http:// dublincore.org/documents/usageguide/#whatismetadata), zuletzt abgerufen am 5. September 2018.

9      KRAMER, A.: IPTC-Studie zum Umgang mit Metadaten sozialer

Netzwerke, 2013 (https://www.heise.de/newsticker/meldung/IPTCStudie-zum-Umgang-mit-Metadaten-sozialer-Netzwerke-1821699.html), zuletzt abgerufen am 5. September 2018

10   WANG, W.: “Liar, Liar Pants on Fire”: A New Benchmark Dataset for Fake News Detection, 2017 (https://arxiv.org/pdf/1705.00648.pdf), zuletzt abgerufen am 5. September 2018

11   SCHWEIGER, W.: Der (des)informierte Bürger im Netz, Wiesbaden 2017, ISBN 978-3-658-16058-6

Steilvorlagen für den Unternehmenserfolg:
Elevator Pitch

Alexander Klaus, Qlick

Datenkompetenz fördern
und verwertbare Einsichten liefern

Siehe auch Datenkompetenz wird zur Schlüsselqualifikation in Unternehmen – Interview mit Wolfgang Kobek (Qlik), in: Open Password, 16. September, #628

Alexander Klaus, für das Marketing von Qlick in den DACH-Ländern sowie in Italien, Spanien und Russland zuständig, sah in seinem Kurzreferat „Holen Sie das Beste aus Ihren Daten, wo immer sie auch liegen“ große Diskrepanzen – zwischen der Datenkompetenz von Unternehmen und Mitarbeitern sowie den immer größer gewordenen Problemen der Datenbereitstellung einerseits – den Potenzialen der Künstlichen Intelligenz auf der anderen Seite. Immerhin wird die im Schnitt geringe Datenkompetenz der Menschen innerhalb und außerhalb der Unternehmen von diesen realistisch eingeschätzt. Im Gegensatz dazu meinte einer der in einem Video vorgestellten Entscheidungsträger von Qlick, dass jede Unternehmensentscheidung datengetrieben sein sollte.

Klaus vergewisserte sich, dass zumindest einige der „Steilvorlagen“-Teilnehmer die eigene Plattform kannten, so dass KI auch insoweit aus dem Stadium abstrakter Ankündigungen herausgekommen ist. Für Klaus und sein Unternehmen bleibt der Mensch der entscheidende Faktor, so dass er statt von „Künstlicher Intelligenz“ lieber von „Augmented Intelligence“, also von dem Zusammenspiel von menschlicher Intuition und Data Analytics, sprach. Er betonte, dass die Verbesserung der Datenkompetenz auch von Mitarbeitern ohne Informatikkenntnissen auf allen Ebenen eines Kundenunternehmens eine Priorität von Qlik ist.

Die Geschäftsidee von Qlik besteht darin, verwertbare Geschäftsaussichten mit Daten aus allen Quellen zu liefern – mit mehr Umsatz, Ideen und Zufriedenheit als Folge. Somit sieht sich Qlik nicht als Technologieanbieter, vielmehr als „Outcome-Provider“. Qlik als Produkt ist denn auch nicht ein Tool, sondern eine Plattform, die Analytics ohne infrastrukturelle Hürden und dazu eine API- und Konnektoren-Vielfalt, Embedded Analytics sowie eine Verfügbarkeit auf allen Endgeräten sicherstellt. Die Datenkompetenz praktisch aller Mitarbeiter werde gesteigert durch eine zentral gemanagte Governance für rollenbasierte Analysen – durch eine Echtzeit-Integration der Daten für unmittelbare Einblicke bis auf die Ebene der einzelnen Artikel – durch eine Selbstservice Business Intelligence für unternehmensübergreifende Analysen sowie durch ein KI-gestütztes Datenmanagement mit besonderem Blick auf die Qualität der Daten und ein intuitives Analytics-Erleben und Verständnis.

Die Strategie, die aus diesen Anforderungen entwickelt wurde, fasste Klaus in vier Punkten zusammen:

  • die Daten dort lassen, wo sie sich befinden und sie dann verfügbar machen, wenn sie benötigt werden, so dass es beispielsweise keine Datensilos mehr gibt;
  • Datenkompetenz, das heißt die Fähigkeiten fördern, Daten zu lesen, zu verstehen, einzuschätzen, zu visualisieren und zu kommunizieren;
  • Augmented Intelligence bereitstellen, mit der die Künstliche Intelligence die Intuition der Mitarbeiter durch optimale Entscheidungsgrundlagen unterstützt und sinnvolle Visualisierungsvorschläge unterbreitet;
  • verwertbare Insights liefern und dies orts- und zeitunabhängig und für den gesamten „Information-Supply-Chain“ von der Datenaufbereitung bis zur Analyse und Reporting auf allen Endgeräten – „performant und dort, wo Sie sie brauchen“.

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.