Open Password – Montag,
den 27. Januar 2020
# 695
Künstliche Intelligenz – Informationsrecherche – Yannick Loonus – Competitive Intelligence – DCIF – Soft Topics – Solution Approach – Effectuation – Research & Consolidation – Visualisierung – Value Added – Data Story Telling – Unknown Unknowns – Wettbewerbsvorteile – Top-Down-Analyse – Bottom-Up-Analyse – Unmet Needs – Delivery – Kollaboration – Cloudbasierte Rechercheplattformen – Stakeholder – Screen Capture Technologies – LinkedIn – ZB MED – TIB – DSMZ – TPDL
AI
Wie Künstliche Intelligenz
die Recherche verändern wird:
Vier Trends
Von Yannick Loonus
In den vergangenen Jahren haben sich Begriffe wie „Artificial Intelligence“ oder „Machine Learning“ zunehmend als Teil unseres Wortschatzes etabliert. Auf der Jahreskonferenz der Competitive Intelligence Branche (DCIF e.V.) Ende September in Bamberg hörte ich den Begriff Artificial Intelligence 32-mal und den Begriff Machine Learning sechsmal – während der ersten zwei Vorträge! Wer hier einen ironischen Unterton herausliest, täuscht sich. Der sich wandelnde Wortschatz ist der lebende Beweis für die Neugierde und die Bereitschaft zur Entwicklung in unserer Branche.
Bei der Diskussion um Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) in der Informationsrecherche stehen meist die harten Fakten im Vordergrund, was uns also KI voraussichtlich einbringen wird: Zugang zu bisher unerschlossenen Quellen, Analyse von großen und/oder komplexen Datenmengen, Ergebnisse in Echtzeit und Effizienzsteigerungen stellen diejenigen Themen dar, die den meisten von uns mittlerweile präsent sind. Der Einfluss moderner Technologien auf die sogenannten Soft Topics wird dagegen, so mein Eindruck, systematisch unterschätzt. Mein erster Job als Information Research Analyst war zwar vollends digitalisiert, doch meinen Laptop schlug ich in einer Bibliothek auf, in der 10.000 Bücher als Print-Exemplare standen. Das war 2012. Zwei Jahre später zog das Unternehmen um, alle Bücher waren verschwunden und mit ihnen die Erinnerung an den letzten großen Wandel in der Recherche.
Informationsrecherchen vollziehen sich heute nach einem recht standardisierten Muster:
1. Solution Approach: Eingang der Anfrage, Definition des Auftrags mit den Ansprechpartnern, Lösungsweg
- Research – What: Quick Wins mittels strukturierter Daten (Finanzen, Zeitreihen), was sticht heraus?
- Research – Why: Erklärungen für die beobachteten Auffälligkeiten, in der Regel mittels unstrukturierter Daten (News, Artikel, Studien, Web, Interview)
- Consolidation of Insights: Zusammenführen der Erkenntnisse – aus Daten entsteht eine Geschichte
- Value Added: Dienstleistungen, die über die bloße Bereitstellung von Informationen hinausgehen
6.Delivery: Übermittlung der Ergebnisse an die Ansprechpartner
__________________________________________________________________________________
Vier Hypothesen zur Zukunft der Informationsrecherche
__________________________________________________________________________________
Für jeden Schritt stehen uns eine Reihe von Office- und Recherche-Tools zu Verfügung. Eine spannende Frage lautet: Können wir mittelfristig diese Schritte und Tools konsolidieren, gerade bei Tätigkeiten, die repetitiv oder redundant sind? Werfen wir einen Blick in die Kristallkugel. Vier Trends zeichnen sich ab, wie KI Arbeitsweisen in der Informationsrecherche verändern wird.
________________________________________________________________________
1. Solution Approach: Neue Chance für Kreativität
________________________________________________________________________
Seien wir mal ehrlich: Warum entscheiden wir uns bei Recherchen für ein bestimmtes Vorgehen? In der Regel, weil wir aus Erfahrung wissen, dass dieser Ansatz funktioniert. Nutzen aber alle dieselben Methoden und Quellen, ist es schwer, einen dauerhaften Wettbewerbsvorteil zu erzielen. KI bietet in diesem Kontext eine großartige Chance, kreativ über Lösungsansätze nachzudenken. Das erfordert jedoch etwas Übung und Überwindung. Eine ähnliche Form von Kreativität findet sich im betriebswirtschaftlichen bzw. unternehmerischen Kontext und nennt sich Effectuation. Auch hier geht es darum, Wettbewerbsvorteile durch den Ausbruch aus dem Gewöhnlichen zu erreichen: „Identify the next best step by assessing the resources available.“ (Für eine kurze Einführung in Effectuation:
https://innovationenglish.sites.ku.dk/model/sarasvathy-effectuation/)
Auch mir gelingt dieses Ausbrechen aus dem Gewöhnlichen mit unterschiedlichem Erfolg. Ein Beispiel auf das wir mit Freude zurückblicken zeigt die untenstehende Case Study, die innerhalb von zwei Wochen realisiert wurde:
_________________________________________________________________________________
2. Research & Consolidation: Vom „Was“ zum „Warum“ in einem Arbeitsschritt
_________________________________________________________________________________
Text ist eine sehr reichhaltige, aber schwer zu nutzende Datenquelle. Menge und Komplexität der verfügbaren Daten machen die Recherchen für den menschlichen Analysten zu potenziell endlosen Aufgaben. KI dagegen hat die Fähigkeit, Text mit menschlicher Genauigkeit bei maschineller Geschwindigkeit zu lesen und das Gelesene an den Analysten rückzumelden. Darauf abgestimmte Visualisierungen ermöglichen es den Nutzern, dieses Potenzial besser auszuschöpfen, indem sie nicht nur deskriptiv Trends zeigen (das „Was“), sondern gleichzeitig erklären, wodurch diese Trends verursacht werden (das „Warum“). Dies wird durch interaktive Diagramme ermöglicht, die die kausalen Zusammenhänge in den zugrundeliegenden Textdaten strukturiert darstellen.
So kann beispielsweise die Frage, warum Ärzte das Medikament Humira Citrate Free verschreiben, im Zusammenhang mit dem Stimmungsbild (positiv, negativ, neutral) gegenüber diversen Themen (z. B. Wirksamkeit, Sicherheit, Darreichungsform) gestellt werden. Hier werden die Vorteile beider Recherchearten miteinander vereint. Eine typische Datenquelle für dieses Beispiel sind schriftliche Befragungen von Ärzten, wobei mit einem Datenvolumen von mehreren Tausend Interaktionen pro Quartal zu rechnen ist.
Richtig eingesetzt wird dem Analysten ermöglicht, innerhalb weniger Sekunden die grundsätzliche inhaltliche Struktur mehrerer Tausend Dokumente zu verstehen (Top-down- Perspektive). Die Recherche nach dem „Warum?“ spielt sich in der Regel bottom-up ab: Der Analyst liest Texte, verbindet diese Informationen mit Hintergrundwissen und konsolidiert hieraus eine Antwort auf die Fragestellung. Diesen Arbeitsschritt zu automatisieren, spart Zeit und wertet die Arbeit des Analysten auf. In dem genannten Beispiel besteht die Möglichkeit, Untermengen des Datensatzes gezielt anzusteuern (z. B. die Schnittmenge von „positivem Sentiment“ und „Angst“), ohne dafür eine Suchstrategie entwickeln zu müssen.
________________________________________________________________________
- Value Added: Entdeckung von „Unknown Unknowns“
________________________________________________________________________
Value Added war in den vergangenen Jahren ein zentrales Thema für Information Professionals, der Druck, mit weniger Ressourcen immer bessere Ergebnisse zu erzielen, stets präsent. In diesem Umfeld ist es nicht ausreichend, lediglich Informationen zu recherchieren und weiterzuleiten. Eine der naheliegenden Möglichkeiten, Mehrwert zu schaffen, ist das „Data Story Telling“, also die Verbindung von Rechercheergebnissen mit dem weiteren Kontext der Anfrage und die daraus folgende Interpretation. Der Mehrwert dieser Art ist jedoch begrenzt, er bedeutet mehr Arbeit, und die Ressourcen in den Rechercheabteilungen werden tendenziell knapper. Natürlich können Effizienzsteigerungen durch moderne Technologien hier helfen, Zeit für Value-Added-Aufgaben freizumachen, aber das schiebt die Problematik nur einige Jahre auf.
Eine langfristige Lösung ist nur in Sicht, wenn es Information Professionals gelingt, sich innerhalb von Unternehmen strategisch zu positionieren – nicht als Empfänger von Anfragen, sondern proaktiv als Bindeglied zwischen Business Needs, Daten und Technologie. In dieser Schnittmenge liegen für mich die „Unknown Unknowns“. Unknown Unknowns bezeichnen Sachverhalte, die wir nicht verstehen und bei denen wir auch kein Bewusstsein davon haben, dass wir sie nicht verstehen. Letzteres führt dazu, dass wir nicht gezielt danach fragen können bzw. es in der Vergangenheit schwer war, Unknown Unknowns systematisch zu entdecken – sie waren beispielsweise Zufallsprodukte explorativer Studien. Bei logischer Betrachtung der Menge und Komplexität der den Unternehmen zur Verfügung stehenden Datenquellen ist es jedoch naheliegend, dass viele Unknown Unknowns darauf warten, entdeckt zu werden – und mit ihnen langfristige Wettbewerbsvorteile. Wären Information Professionals in der Lage, solche Erkenntnisse systematisch zu erzeugen, wäre die strategische Positionierung ein Leichtes.
Der Schlüssel dafür liegt für mich in der Integration, einerseits über die Zusammenführung von Datensilos und andererseits durch die in 2) beschriebene Kombination von Top-Down und Bottom-Up Analyse. Denn die Fähigkeit, einen Informationsbestand restlos zu überblicken und zu verstehen, reduziert die Gefahr etwas zu verpassen und damit die Unsicherheit enorm.
Ein Anwendungsbeispiel hierfür sehen wir beispielsweise täglich bei Recherchen im Healthcare Bereich. „Unmet Needs“ sind unerfüllte Bedürfnisse von Patienten, deren Angehörigen und Ärzten – häufig zu finden in textbasierten Datenquellen wie Onlineforen. Deren Entdeckung liefert wiederum Input für neue klinische Studien, bessere Aufklärungsarbeit für Ärzte und die Schaffung von Programmen zur Unterstützung von Patienten.
_______________________________________________________________________________
- Delivery: Wir haben Datensilos aufgeschlüsselt, nun lasst uns Teams aufschlüsseln
_______________________________________________________________________________
Dass im Zusammenbringen von Datenbeständen und deren Interaktion Wettbewerbsvorteile entstehen, haben wir seit einiger Zeit verstanden. Doch nützen die bahnbrechendsten Erkenntnisse nichts, wenn sie die Entscheidungsträger nicht erreichen. „Tue Gutes und rede darüber“ war das Motto, das ich früh in meiner Karriere als Information Professional gelernt habe. Und ein erster Schritt zur Sichtbarkeit und Platzierung im Unternehmen ist damit getan. Dem wirken allerdings oft Hierarchien und Berichtsketten entgegen.
In einer idealen Welt stehen Mitarbeitern in einem Unternehmen auf einer zentralen Plattform jederzeit alle Informationen zu Verfügung, die sie brauchen (und einsehen dürfen). Diese können im Anschluss in einer Form aggregiert werden, dass sie gezielt Fragen beantworten. Solche Systeme können in Zukunft genutzt werden, um nach Datensilos auch Teams aufzuschlüsseln und Kollaboration zu fördern.
Was den Punkt der Kollaboration angeht, hinken professionelle Plattformen Angeboten, die wir in unserer Freizeit nutzen, allerdings hinterher. Verhaltensanreize durch Gamification? Fehlanzeige. Eine Recherche inklusive Kommentar durch „Screen Capture Technologie“ aufzeichnen? Nicht vorgesehen. Während wir im Privatleben eine Vielzahl von Tools nutzen, die letztlich den Zweck erfüllen, unsere Sichtbarkeit zu erhöhen (auch als Social Media bekannt), können wir im Arbeitsalltag nur davon träumen. Dabei können diese grundsätzlichen Prinzipien transferiert werden, ohne dass die Professionalität untergraben wird.
________________________________________________________________________
Cloudbasierte Rechercheplattformen
________________________________________________________________________
Ich gehe stark davon aus, dass wir in Zukunft cloudbasierte Rechercheplattformen sehen werden, die folgende Features beinhalten:
- Kollaboration und Zusammenarbeit (ähnlich beispielsweise Office 365) in einem Tool über diverse Datenquellen hinweg,
- die Möglichkeit, interne und externe Stakeholder zu Recherchen einzuladen bzw. Ergebnisse effektiver zu teilen (Integration von firmeninternen Kommunikationssystemen wie Slack in die Plattform),
- Kommentieren und Diskutieren von Dashboards, Charts und Datenpunkten im Social Media Stil,
- Aufzeichnen von Recherchen mit „Screen Capture Technologie“,
- Nutzerprofile im Stile von LinkedIn, die es einfacher machen, Experten in einem Bereich zu identifizieren und eine sichtbare Auszeichnung darstellen,
- neue KPI, die den Return on Investment moderner Technologien messen (zum Beispiel Time from Data Ingestion to Shared Insights, Number of People Reached in Company, Number of Insights Generated from Data Source).
Yannick Loonus (yannick.loonus@semalytix.de) ist Chief Sales Officer der Semalytix GmbH, wo er hilft, die nächste Generation textverarbeitender Künstlicher Intelligenz zu entwickeln. Semalytix analysiert unstrukturierte Daten aus internen und externen Quellen, um verstecktes Wissen in Texten sichtbar zu machen. Zuvor hat Yannick in der Informationsabteilung einer internationalen Unternehmensberatung gearbeitet und im Bereich Wirtschaftswissenschaften mit Schwerpunkt Entrepreneurship an der Schumpeter School of Business and Economics in Wuppertal promoviert.
ZB MED, TIB und DSMZ
Merkmale von Bakterien
vorhersagbar machen
ZB MED, TIB und DSMZ (Deutsche Sammlung von Mikroorganismen und Zellkulturen GmbH) waren im Leibniz-Wettbewerb erfolgreich, so dass die Förderung ihres gemeinsamen Projektes DiASPora (= „Digital Approaches for the Synthesis of Poorly Accessible Biodiversity Information“) sichergestellt ist.
Die Partner planen, mit digitalen Methoden schwer zugängliche Informationen zur Biodiversität von Bakterien zu finden und zusammenzuführen. Letztendlich sollen die Eigenschaften von Bakterien vorhersagbar gemacht werden. Dabei kommen manuelle Kuration, Text Mining, Schlussfolgerungen durch bioinformatische Methoden und maschinelles Lernen zum Einsatz.
TPDL 2020
Theory and Practice of Digital Libraries
25-28 August 2020, 24th International Conference on Theory and Practice of Digital Libraries, in Lyon – http://eric.univ-lyon2.fr/tpdl2020/. TPDL 2020 will be co-located with – 24th European Conference on Advances in Databases and Information Systems – 16th EDA days on Business Intelligence & Big Data – Potential Topics:
– Information Retrieval and Access
– Knowledge Discovery in Digital Libraries
– Document (Text) Analysis
– Services for Digital Arts and Humanities
– GLAM Data for Digital Arts and Humanities
– Research Data Management
– Data Repositories and Archives
– Web Archives
– Semantic Web Technologies and Linked Data for DLs
– Standards and Interoperability
– Digital Preservation and Curation
– Data and Information Lifecycle (creation, store, share and reuse)
– Linked Data
– Open Data and Knowledge
– Scholarly Communication
– Citation Analysis and Scientometrics
– Cultural Heritage Access and Analysis
– Digital History
– Data and Metadata Quality
– Digital Service Infrastructures
– Research Infrastructures
– User Participation
– User Interface and Experience
– Information interaction and seeking behavior in digital libraries
– User studies for digital library development
– Sustainability of digital libraries
– Legal Issues
– Emerging New Challenges and Opportunities
– Applications of Digital Libraries
– Collection Development and Discovery.
Open Password
Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum
Neue Ausgaben von Open Password erscheinen viermal in der Woche.
Wer den E-Mai-Service kostenfrei abonnieren möchte – bitte unter www.password-online.de eintragen.
Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.
International Co-operation Partner:
Outsell (London)
Business Industry Information Association/BIIA (Hongkong)
Anzeige
FAQ + Hilfe