Open Password – Montag,
den 27. Januar 2020

# 695

Künstliche Intelligenz – Informationsrecherche – Yannick Loonus – Competitive Intelligence – DCIF – Soft Topics – Solution Approach – Effectuation – Research & Consolidation – Visualisierung – Value Added – Data Story Telling – Unknown Unknowns – Wettbewerbsvorteile – Top-Down-Analyse – Bottom-Up-Analyse – Unmet Needs – Delivery – Kollaboration – Cloudbasierte Rechercheplattformen – Stakeholder – Screen Capture Technologies – LinkedIn – ZB MED – TIB – DSMZ – TPDL

AI

Wie Künstliche Intelligenz
die Recherche verändern wird:

Vier Trends

Von Yannick Loonus

In den vergangenen Jahren haben sich Begriffe wie „Artificial Intelligence“ oder „Machine Learning“ zunehmend als Teil unseres Wortschatzes etabliert. Auf der Jahreskonferenz der Competitive Intelligence Branche (DCIF e.V.) Ende September in Bamberg hörte ich den Begriff Artificial Intelligence 32-mal und den Begriff Machine Learning sechsmal – während der ersten zwei Vorträge! Wer hier einen ironischen Unterton herausliest, täuscht sich. Der sich wandelnde Wortschatz ist der lebende Beweis für die Neugierde und die Bereitschaft zur Entwicklung in unserer Branche.

Bei der Diskussion um Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) in der Informationsrecherche stehen meist die harten Fakten im Vordergrund, was uns also KI voraussichtlich einbringen wird: Zugang zu bisher unerschlossenen Quellen, Analyse von großen und/oder komplexen Datenmengen, Ergebnisse in Echtzeit und Effizienzsteigerungen stellen diejenigen Themen dar, die den meisten von uns mittlerweile präsent sind. Der Einfluss moderner Technologien auf die sogenannten Soft Topics wird dagegen, so mein Eindruck, systematisch unterschätzt. Mein erster Job als Information Research Analyst war zwar vollends digitalisiert, doch meinen Laptop schlug ich in einer Bibliothek auf, in der 10.000 Bücher als Print-Exemplare standen. Das war 2012. Zwei Jahre später zog das Unternehmen um, alle Bücher waren verschwunden und mit ihnen die Erinnerung an den letzten großen Wandel in der Recherche.

Informationsrecherchen vollziehen sich heute nach einem recht standardisierten Muster:

1. Solution Approach: Eingang der Anfrage, Definition des Auftrags mit den Ansprechpartnern, Lösungsweg

  1. Research – What: Quick Wins mittels strukturierter Daten (Finanzen, Zeitreihen), was sticht heraus?
  1. Research – Why: Erklärungen für die beobachteten Auffälligkeiten, in der Regel mittels unstrukturierter Daten (News, Artikel, Studien, Web, Interview)
  1. Consolidation of Insights: Zusammenführen der Erkenntnisse – aus Daten entsteht eine Geschichte
  1. Value Added: Dienstleistungen, die über die bloße Bereitstellung von Informationen hinausgehen

6.Delivery: Übermittlung der Ergebnisse an die Ansprechpartner

__________________________________________________________________________________

Vier Hypothesen zur Zukunft der Informationsrecherche

__________________________________________________________________________________

Für jeden Schritt stehen uns eine Reihe von Office- und Recherche-Tools zu Verfügung. Eine spannende Frage lautet: Können wir mittelfristig diese Schritte und Tools konsolidieren, gerade bei Tätigkeiten, die repetitiv oder redundant sind? Werfen wir einen Blick in die Kristallkugel. Vier Trends zeichnen sich ab, wie KI Arbeitsweisen in der Informationsrecherche verändern wird.

________________________________________________________________________

1. Solution Approach: Neue Chance für Kreativität

________________________________________________________________________

Seien wir mal ehrlich: Warum entscheiden wir uns bei Recherchen für ein bestimmtes Vorgehen? In der Regel, weil wir aus Erfahrung wissen, dass dieser Ansatz funktioniert. Nutzen aber alle dieselben Methoden und Quellen, ist es schwer, einen dauerhaften Wettbewerbsvorteil zu erzielen. KI bietet in diesem Kontext eine großartige Chance, kreativ über Lösungsansätze nachzudenken. Das erfordert jedoch etwas Übung und Überwindung. Eine ähnliche Form von Kreativität findet sich im betriebswirtschaftlichen bzw. unternehmerischen Kontext und nennt sich Effectuation. Auch hier geht es darum, Wettbewerbsvorteile durch den Ausbruch aus dem Gewöhnlichen zu erreichen: „Identify the next best step by assessing the resources available.“ (Für eine kurze Einführung in Effectuation:

https://innovationenglish.sites.ku.dk/model/sarasvathy-effectuation/)

 

Auch mir gelingt dieses Ausbrechen aus dem Gewöhnlichen mit unterschiedlichem Erfolg. Ein Beispiel auf das wir mit Freude zurückblicken zeigt die untenstehende Case Study, die innerhalb von zwei Wochen realisiert wurde:

_________________________________________________________________________________

2. Research & Consolidation: Vom „Was“ zum „Warum“ in einem Arbeitsschritt

_________________________________________________________________________________

Text ist eine sehr reichhaltige, aber schwer zu nutzende Datenquelle. Menge und Komplexität der verfügbaren Daten machen die Recherchen für den menschlichen Analysten zu potenziell endlosen Aufgaben. KI dagegen hat die Fähigkeit, Text mit menschlicher Genauigkeit bei maschineller Geschwindigkeit zu lesen und das Gelesene an den Analysten rückzumelden. Darauf abgestimmte Visualisierungen ermöglichen es den Nutzern, dieses Potenzial besser auszuschöpfen, indem sie nicht nur deskriptiv Trends zeigen (das „Was“), sondern gleichzeitig erklären, wodurch diese Trends verursacht werden (das „Warum“). Dies wird durch interaktive Diagramme ermöglicht, die die kausalen Zusammenhänge in den zugrundeliegenden Textdaten strukturiert darstellen.

So kann beispielsweise die Frage, warum Ärzte das Medikament Humira Citrate Free verschreiben, im Zusammenhang mit dem Stimmungsbild (positiv, negativ, neutral) gegenüber diversen Themen (z. B. Wirksamkeit, Sicherheit, Darreichungsform) gestellt werden. Hier werden die Vorteile beider Recherchearten miteinander vereint. Eine typische Datenquelle für dieses Beispiel sind schriftliche Befragungen von Ärzten, wobei mit einem Datenvolumen von mehreren Tausend Interaktionen pro Quartal zu rechnen ist.

Richtig eingesetzt wird dem Analysten ermöglicht, innerhalb weniger Sekunden die grundsätzliche inhaltliche Struktur mehrerer Tausend Dokumente zu verstehen (Top-down- Perspektive). Die Recherche nach dem „Warum?“ spielt sich in der Regel bottom-up ab: Der Analyst liest Texte, verbindet diese Informationen mit Hintergrundwissen und konsolidiert hieraus eine Antwort auf die Fragestellung. Diesen Arbeitsschritt zu automatisieren, spart Zeit und wertet die Arbeit des Analysten auf. In dem genannten Beispiel besteht die Möglichkeit, Untermengen des Datensatzes gezielt anzusteuern (z. B. die Schnittmenge von „positivem Sentiment“ und „Angst“), ohne dafür eine Suchstrategie entwickeln zu müssen.

________________________________________________________________________

  1. Value Added: Entdeckung von „Unknown Unknowns“

    ________________________________________________________________________

Value Added war in den vergangenen Jahren ein zentrales Thema für Information Professionals, der Druck, mit weniger Ressourcen immer bessere Ergebnisse zu erzielen, stets präsent. In diesem Umfeld ist es nicht ausreichend, lediglich Informationen zu recherchieren und weiterzuleiten. Eine der naheliegenden Möglichkeiten, Mehrwert zu schaffen, ist das „Data Story Telling“, also die Verbindung von Rechercheergebnissen mit dem weiteren Kontext der Anfrage und die daraus folgende Interpretation. Der Mehrwert dieser Art ist jedoch begrenzt, er bedeutet mehr Arbeit, und die Ressourcen in den Rechercheabteilungen werden tendenziell knapper. Natürlich können Effizienzsteigerungen durch moderne Technologien hier helfen, Zeit für Value-Added-Aufgaben freizumachen, aber das schiebt die Problematik nur einige Jahre auf.

Eine langfristige Lösung ist nur in Sicht, wenn es Information Professionals gelingt, sich innerhalb von Unternehmen strategisch zu positionieren – nicht als Empfänger von Anfragen, sondern proaktiv als Bindeglied zwischen Business Needs, Daten und Technologie. In dieser Schnittmenge liegen für mich die „Unknown Unknowns“. Unknown Unknowns bezeichnen Sachverhalte, die wir nicht verstehen und bei denen wir auch kein Bewusstsein davon haben, dass wir sie nicht verstehen. Letzteres führt dazu, dass wir nicht gezielt danach fragen können bzw. es in der Vergangenheit schwer war, Unknown Unknowns systematisch zu entdecken – sie waren beispielsweise Zufallsprodukte explorativer Studien. Bei logischer Betrachtung der Menge und Komplexität der den Unternehmen zur Verfügung stehenden Datenquellen ist es jedoch naheliegend, dass viele Unknown Unknowns darauf warten, entdeckt zu werden – und mit ihnen langfristige Wettbewerbsvorteile. Wären Information Professionals in der Lage, solche Erkenntnisse systematisch zu erzeugen, wäre die strategische Positionierung ein Leichtes.

Der Schlüssel dafür liegt für mich in der Integration, einerseits über die Zusammenführung von Datensilos und andererseits durch die in 2) beschriebene Kombination von Top-Down und Bottom-Up Analyse. Denn die Fähigkeit, einen Informationsbestand restlos zu überblicken und zu verstehen, reduziert die Gefahr etwas zu verpassen und damit die Unsicherheit enorm.

Ein Anwendungsbeispiel hierfür sehen wir beispielsweise täglich bei Recherchen im Healthcare Bereich. „Unmet Needs“ sind unerfüllte Bedürfnisse von Patienten, deren Angehörigen und Ärzten – häufig zu finden in textbasierten Datenquellen wie Onlineforen. Deren Entdeckung liefert wiederum Input für neue klinische Studien, bessere Aufklärungsarbeit für Ärzte und die Schaffung von Programmen zur Unterstützung von Patienten.

_______________________________________________________________________________

  1. Delivery: Wir haben Datensilos aufgeschlüsselt, nun lasst uns Teams aufschlüsseln

_______________________________________________________________________________

Dass im Zusammenbringen von Datenbeständen und deren Interaktion Wettbewerbsvorteile entstehen, haben wir seit einiger Zeit verstanden. Doch nützen die bahnbrechendsten Erkenntnisse nichts, wenn sie die Entscheidungsträger nicht erreichen. „Tue Gutes und rede darüber“ war das Motto, das ich früh in meiner Karriere als Information Professional gelernt habe. Und ein erster Schritt zur Sichtbarkeit und Platzierung im Unternehmen ist damit getan. Dem wirken allerdings oft Hierarchien und Berichtsketten entgegen.

In einer idealen Welt stehen Mitarbeitern in einem Unternehmen auf einer zentralen Plattform jederzeit alle Informationen zu Verfügung, die sie brauchen (und einsehen dürfen). Diese können im Anschluss in einer Form aggregiert werden, dass sie gezielt Fragen beantworten. Solche Systeme können in Zukunft genutzt werden, um nach Datensilos auch Teams aufzuschlüsseln und Kollaboration zu fördern.

Was den Punkt der Kollaboration angeht, hinken professionelle Plattformen Angeboten, die wir in unserer Freizeit nutzen, allerdings hinterher. Verhaltensanreize durch Gamification? Fehlanzeige. Eine Recherche inklusive Kommentar durch „Screen Capture Technologie“ aufzeichnen? Nicht vorgesehen. Während wir im Privatleben eine Vielzahl von Tools nutzen, die letztlich den Zweck erfüllen, unsere Sichtbarkeit zu erhöhen (auch als Social Media bekannt), können wir im Arbeitsalltag nur davon träumen. Dabei können diese grundsätzlichen Prinzipien transferiert werden, ohne dass die Professionalität untergraben wird.

________________________________________________________________________

Cloudbasierte Rechercheplattformen

________________________________________________________________________

Ich gehe stark davon aus, dass wir in Zukunft cloudbasierte Rechercheplattformen sehen werden, die folgende Features beinhalten:

  • Kollaboration und Zusammenarbeit (ähnlich beispielsweise Office 365) in einem Tool über diverse Datenquellen hinweg,
  • die Möglichkeit, interne und externe Stakeholder zu Recherchen einzuladen bzw. Ergebnisse effektiver zu teilen (Integration von firmeninternen Kommunikationssystemen wie Slack in die Plattform),
  • Kommentieren und Diskutieren von Dashboards, Charts und Datenpunkten im Social Media Stil,
  • Aufzeichnen von Recherchen mit „Screen Capture Technologie“,
  • Nutzerprofile im Stile von LinkedIn, die es einfacher machen, Experten in einem Bereich zu identifizieren und eine sichtbare Auszeichnung darstellen,
  • neue KPI, die den Return on Investment moderner Technologien messen (zum Beispiel Time from Data Ingestion to Shared Insights, Number of People Reached in Company, Number of Insights Generated from Data Source).

Yannick Loonus (yannick.loonus@semalytix.de) ist Chief Sales Officer der Semalytix GmbH, wo er hilft, die nächste Generation textverarbeitender Künstlicher Intelligenz zu entwickeln. Semalytix analysiert unstrukturierte Daten aus internen und externen Quellen, um verstecktes Wissen in Texten sichtbar zu machen. Zuvor hat Yannick in der Informationsabteilung einer internationalen Unternehmensberatung gearbeitet und im Bereich Wirtschaftswissenschaften mit Schwerpunkt Entrepreneurship an der Schumpeter School of Business and Economics in Wuppertal promoviert.

ZB MED, TIB und DSMZ

Merkmale von Bakterien
vorhersagbar machen

ZB MED, TIB und DSMZ (Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH) waren im Leibniz-Wettbewerb erfolgreich, so dass die Förderung ihres gemeinsamen Projektes DiASPora (= „Digital Approaches for the Synthesis of Poorly Accessible Biodiversity Information“) sichergestellt ist.

Die Partner planen, mit digitalen Methoden schwer zugängliche Informationen zur Biodiversität von Bakterien zu finden und zusammenzuführen. Letztendlich sollen die Eigenschaften von Bakterien vorhersagbar gemacht werden. Dabei kommen manuelle Kuration, Text Mining, Schlussfolgerungen durch bioinformatische Methoden und maschinelles Lernen zum Einsatz.

TPDL 2020

Theory and Practice of Digital Libraries

25-28 August 2020, 24th International Conference on Theory and Practice of Digital Libraries, in Lyon – http://eric.univ-lyon2.fr/tpdl2020/. TPDL 2020 will be co-located with – 24th European Conference on Advances in Databases and Information Systems – 16th EDA days on Business Intelligence & Big Data – Potential Topics:

– Information Retrieval and Access

– Knowledge Discovery in Digital Libraries

– Document (Text) Analysis

– Services for Digital Arts and Humanities

– GLAM Data for Digital Arts and Humanities

– Research Data Management

– Data Repositories and Archives

– Web Archives

– Semantic Web Technologies and Linked Data for DLs

– Standards and Interoperability

– Digital Preservation and Curation

– Data and Information Lifecycle (creation, store, share and reuse)

– Linked Data

– Open Data and Knowledge

– Scholarly Communication

– Citation Analysis and Scientometrics

– Cultural Heritage Access and Analysis

– Digital History

– Data and Metadata Quality

– Digital Service Infrastructures

– Research Infrastructures

– User Participation

– User Interface and Experience

– Information interaction and seeking behavior in digital libraries

– User studies for digital library development

– Sustainability of digital libraries

– Legal Issues

– Emerging New Challenges and Opportunities

– Applications of Digital Libraries

– Collection Development and Discovery.

Open Password

Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum

Neue Ausgaben von Open Password erscheinen viermal in der Woche.

Wer den E-Mai-Service kostenfrei abonnieren möchte – bitte unter www.password-online.de eintragen.

Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.

International Co-operation Partner:

Outsell (London)
Business Industry Information Association/BIIA (Hongkong)

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.