Open Password Archiv Logo

Anzeige






Open Password: Montag, den 18. April 2016

Qualifizierung – Anna Knoll – Big Data – IK – Willi Bredemeier – Bitkom – Susanne Dehmel

Neue Quellen zu Qualifizierungsfragen

Ausgesucht von Anna Knoll

Top Skills and Careers for 2016

v     Nicht nur für Bibliothekare interessant: Top Skills for Tomorrow’s Librarians | Careers 2016 – http://lj.libraryjournal.com/2016/03/featured/top-skills-for-tomorrows-librarians-careers-2016/

v     „Dealing with Data“: one of five technical skills information professionals should learn via @CILIPinfo http://www.cilip.org.uk/blog/5-technical-skills-information-professionals-should-learn

v     „Skepticism. A good thing in an Analyst because you know what to use as a source of decisions, and what not to.“ http://www.kaushik.net/avinash/great-analyst-skills-skepticism-wisdom/?utm_source=rss&utm_medium=email&utm_campaign=Feed:+OccamsRazorByAvinash+%28Occam%27s+Razor+by+Avinash+Kaushik%29 via @avinash

v     How role of the information management professional is being reinvented for the digital age.. http://www.information-age.com/it-management/skills-training-and-leadership/123461206/how-role-information-management-professional-being-reinvented-digital-age-study … via @InformationAge

Big Data –
wirklich allwissend?

Die Ersetzung des Wissenschaftlers
und der Kausalität
durch Algorithmen?

Die wichtigsten Anwendungen
und Einsatzbereiche

Wie sich Big Data
in deutschen Unternehmen
verbreitet hat

 Von Willi Bredemeier

  1. IK-Symposium „Big Data – wirklich allwissend?“, beim Bundesverband Öffentlicher Banken Deutschlands in Berlin mit etwa 40 Teilnehmern, darunter vielen Multiplikatoren aus der ganzen Branche. Auch die Informationsanbieter waren vertreten, GBI-Genios gleich mit drei Repräsentanten, der Geschäftsführer von Factiva Deutschland und indirekt auch LexisNexis. Immerhin waren die Datenbankanbieter die ersten Pioniere bei Big Data, nämlich bei Sammeln und Finden von Informationen, und müssen sie heute entscheiden, wie weit sie sich in den Bereich der Datenanalyse vorwagen (eventuell auch durch Aufkäufe und Partnerschaften).

Zur Allwissenheit verhelfen uns die Algorithmen, die nach unseren Vorgaben riesige Datenberge durchforsten und neue Zusammenhänge entdecken, mit Sicherheit nicht. Aber sie können immer mehr Dinge in immer weiteren Bereichen besser als Menschen, und es ist ebenso faszinierend wie erschreckend zu sehen, welche neuen Anwendungsbereiche sich für Big-Data-Algorithmen ergeben haben, sobald man sich nach einem halben Jahr Pause zurück an die Front der Big-Data-Erörterungen begibt. So hatten wir bereits auf dem Datenbankfrühstück von GBI-Genios anlässlich der letzten Buchmesse gestaunt, was Big Data mittlerweile alles vermag. Auch hatte Password bereits 2015 zwei Titelgeschichten auf die „Roboterisierung“ des Journalismus und der Belletristik verwendet.

Nun war in Berlin die Wissenschaft und Wirtschaft an der Reihe. Ist die Kausalität ein veralteter vielleicht metaphysischer Begriff und sollten wir uns stattdessen mit – von Algorithmen viel besser oder überhaupt erst zu findenden – Korrelationen begnügen, wie der Chefredakteur von Wired („The End of Theory“) vorgeschlagen hat? Da war es tröstlich zu hören, dass dem „Data Scientist“, der nicht nur über eine methodische, sondern auch fachliche Kompetenz verfügt, also ein bestimmtes „Business“ verstehen muss, eine bedeutende Zukunft zugesprochen wurde, auf dass dieser die vielen Scheinkorrelationen von Ursache-Wirkungs-Zusammenhängen scheide. Aber schon wies Susanne Dehmel von der Geschäftsleitung Bitkom (Vertrauen und Sicherheit) auf Absichten in den Vereinigten Staaten hin, Algorithmen so intelligent zu machen, dass man des Data Scientisten nicht mehr bedürfe. Prof. Dr. Klaus Mainzer von der TU München zeigte auf, dass die Algorithmen in den Naturwissenschaften klug genug geworden seien, um von sich aus brauchbare Vorschläge zur Erkenntnisgewinnung zu machen. Wohl mögen die Algorithmen in den Wirtschafts-, Sozial- und Geisteswissenschaften noch nicht so weit sein. Aber auch hier befinden wir uns in der „Data Driven Science“ und wird damit das Basiskonzept der Kausalität und mit ihm der menschliche Wissenschaftler der Tendenz nach entthront.

Die auf Big-Data-Algorithmen basierenden Programme, Technologien und Anwendungen wirken disruptiv und werden ganze Branchen zerstören (wie, so das klassische Beispiel, das Auto die Pferdekutschen verdrängt hat). Auch in zwanzig Jahren mag es noch Schlosser, Dreher, Ingenieure, Information Professionals und Bibliothekare geben, aber ihre Aufgabenprofile werden völlig andere sein. Und was machen die Algorithmen mit uns außerhalb unserer beruflichen Tätigkeiten? Dabei lauern die größten Fragen nicht beim „gläsernen Bürger“ oder „gläsernen Nutzer“, dem die persönlichen Daten zum Zwecke der politischen Überwachung oder der Effizienzsteigerung von Werbung genommen werden. Vielmehr droht die fortschreitende Entmündigung des denkenden und handelnden Menschen durch die Maschinen, weil wir in diesem Fall ziemlich wehrlos sind. Oder sollen wir in Zukunft auf unsere Rechte als Autofahrer beharren, wenn die Zahl der Verkehrstoten durch die Softwaresteuerung des Autors icht nur verringert, vielmehr auf Null gesetzt wird?

Zwar waren die Teilnehmer der Podiumsdiskussion übereinstimmend der Meinung, dass die Menschen die Chancen, die sich mit den Big-Data-Algorithmen eröffnen, besser zu nutzen wissen als in die sich gleichfalls mit Algorithmen ergebenden Risikofallen zu tappen. Aber das ließ sich auch als Pfeifen im Walde verstehen und hätte sich ein anderes Fazit der Tagung ziehen lassen: Der Mensch gibt einen immer größeren Teil seiner Souveränität an die von ihm geschaffenen Maschinen ab. Dabei droht der Menschheit nicht die Tyrannei eines „Big Brother“, wohl aber folgen wir unserem Maschinenpark, weil er immer wieder das Vernünftigere vorschlägt. Da ist es tröstlich zu wissen, dass man zur besseren Lösung nicht gezwungen wird, sonst fast liebevoll lediglich in die eine oder andere Richtung, die man noch nicht eingesehen hat, gestupst wird (Nudging). Eine entsprechende Unit gibt es bereits, wir erinnern uns, im Bundeskanzleramt.

____________________________________________________________________________

Ein faszinierendes und zugleich erschreckendes Panorama neuer Big-Data-Anwendungen.

___________________________________________________________________________

Der IK hatte zu einem Symposion „Big Data“ eingeladen, wohl weil die Banken und damit auch ihre Information Professionals ihre Kunden kennen müssen und sich Big Data branchenübergreifend als so unvermeidlich erweisen wird wie zuvor der Computer und das Internet. Auf die Unvermeidlichkeit hatte Frau Dehmel so hingewiesen:  „Manche dürfen noch nicht. Ein paar wollen noch nicht. Müssen werden wohl alle!“

Bei der Auswahl der Referenten hatte der IK eine glückliche Hand – auch weil diese auf polarisierende Aussagen verzichtend zu differenzierenden Nutzen-Kosten-Einschätzungen von Big Data sowohl allgemein als auch bei einzelnen Anwendungen kamen. Nicht zuletzt entfaltete sich mit ihren Aussagen ein Panorama neuer Big-Data-Anwendungen.

__________________________________________________________________________

Ist Big Data vor allem ein Hype? Oder markiert es einen radikalen Sprung zu neuen Analytics und Anwendungen?

___________________________________________________________________________

Für das erste Highlight sorgte Frau Dehmel in „Big-Data-Einsatz im Überblick – Chancen, Verantwortung, Leitlinien“. Ist Big Data nur ein Hype um alte Anwendungsschätzchen, denen man einen neuen Namen gegeben hat, um den Absatz von Softwareprogrammen anzukurbeln, wie der Moderator der Podiumsdiskussion, Rafael Ball (ETH Zürich), später provozierend fragte. Das sicherlich teilweise auch. Aber die Bitkom-Referentin bemühte sich um definitorische Abgrenzungen und bezeichnete Big Data als „Einsatz großer Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens“ – mit  nach wie vor exponentiell wachsenden Kapazitäten der Datenverarbeitung nach dem Moore´schen Gesetz und entsprechend zunehmenden Datenmengen und wachsender Datenvielfalt, vor allem aber mit den gleichfalls explodierenden Möglichkeiten der Analytics, also dem maschinellen Erkennen von Zusammenhängen, Bedeutungen und Mustern bis hin zur Bildung von Vorhersagemodellen.

___________________________________________________________________________

75% der deutschen Unternehmen basieren ihre Entscheidungen zunehmend auf Erkenntnisse aus der Analyse von Daten.

___________________________________________________________________________

Frau Dehmel sah als Einsatzbereiche von Big Data in Unternehmen zum Zwecke der Effizienzsteigerung, des Umsatzwachstums und der Risikominimierung vor allem Marketing und Vertrieb, Forschung und Produktentwicklung, Produktion, Service und Support, Distribution und Logistik sowie Finanz- und Risiko-Controlling. Als Beispiele für den Einsatz von Big Data im Bereich „Verbraucher und Gesellschaft“ nannte sie: die Energiewende – Smart Grid, Verkehrssysteme, Medizinische Forschung und Diagnostik, Bildung und Qualifizierung – Öffentlicher Bereich (Katastrophenmanagement, Umwelt-Monitoring, Kriminalitätsbekämpfung und Vorhersage von Krisensituationen), Finanzdienstleistungen (Kreditvergabe), Landwirtschaft (Smart Farming), Connected Car sowie Digitale Einkaufswelten und Online-Marketing.

Inwieweit hat sich die Unterstützung von Entscheidungen durch Datenanalysen in den Unternehmen durchgesetzt? Dazu legten Bitkom Research und KPMG Ergebnisse vor (in Klammern: Anteile der Antworten „Trifft voll und ganz zu“ und „Trifft eher zu“ in Prozent)“:

  • Relevante Entscheidungen in unserem Unternehmen basieren zunehmend auf Erkenntnissen aus der Analyse von Daten 75%;
  • Die Analyse von Daten ist zunehmend ein entscheidender Baustein für die Wertschöpfung/die Geschäftsmodelle in unserem Unternehmen 61%;
  • Unser Unternehmen sucht aktiv nach Chancen, die sich durch die umfassende Analyse von Daten bieten 54%;
  • In unserem Unternehmen analysieren wir Daten nicht nur, sondern schaffen es auch, die Erkenntnisse aus der Analyse in konkreten Nutzen für das Unternehmen umzuwandeln 48%;
  • Unser Unternehmen ist daran interessiert, die neuesten Technologien zur Analyse von Daten einzusetzen 43%;
  • Wir beobachten aktiv den Markt hinsichtlich der neuesten Anwendungsfälle, die sich durch die Analyse von Daten ergeben – einschließlich der neuesten technologischen Möglichkeiten 41%.

Die fortgeschrittensten Branchen sind nach den Ergebnissen von Bitkom und KPMG Transport und Logistik, die Automobilindustrie sowie die Versicherungswirtschaft.

_________________________________________________________________________

Die wichtigsten Hürden, die der Nutzung von Datenanalysen entgegenstehen..

_________________________________________________________________________

Bitkom und KPMG suchten auch die größten Hürden, die der Nutzung von Datenanalysen entgegenstehen, zu identifizieren:

  • Keine Weitergabe von Daten an Drittanbieter 74%
  • Unzureichendes Budget 63%
  • Nicht genügend Datenanalyse-Spezialisten 59%
  • Unklarheiten hinsichtlich Rechtslage 45%
  • Schwierigkeiten bei der Erstellung eines Business Case 34%
  • Sorge vor öffentlicher Kritik 28%
  • Unzureichende Quantität der Daten 22%
  • Fehlende Information zu Analysemöglichkeiten 18%.

Die Referentin ging auch auf konkrete Anwendungen ein:

  • Thyssen Krupp hat intelligente Fahrstühle entwickelt, die Sensordaten in entscheidungsrelevante Informationen transformieren, damit zur Selbstdiagnose fähig sind und den Technikern die auf sie passenden Therapien erläutern – mit der Folge verbesserter Zuverlässigkeit und höherer Betriebszeiten.
  • München Re lässt rückversicherungsrelevante Schadensfälle zum frühestmöglichen Zeitpunkt, im Idealfall sogar in Echtzeit, identifizieren, um zum erstmöglichen Zeitpunkt schadensmindernd eingreifen zu können. Dabei werden 4.000 Nachrichtenquellen genutzt. Auch an anderer Stelle wurden die Möglichkeiten von Big Data für die Versicherungswirtschaft positiv bewertet: So geben soziale Medien darüber Aufschluss, wie sich beispielsweise eine Naturkatastrophe territorial konkret ausgewirkt hat.
  • Tumorerkrankungen sind schwierig zu therapieren und bedürfen häufig eines personalisierten Ansatzes. Big Data ermöglicht es, Erfolg versprechende Therapien nach den genetischen Profilen der Patienten zu ermitteln und dem einzelnen Patienten die passenden Studien zuzuordnen. Damit steigt die Lebenserwartung.
  • Predictive Policing, also der besondere Einsatz von Polizeikräften in von Big Data entdeckten Problemstraßen und -vierteln, nach Vorbildern in den USA etwa in Zürich, München und Nürnberg eingeführt, hat auch zu negativen Schlagzeilen geführt. In Deutschland darf die Polizei weit weniger Daten als in den USA heranziehen. Gleichwohl stimmten auch die hier erzielten Ergebnisse zuversichtlich. Ein Teilnehmer der Tagung verwies auf Predictive Policing als Beispiel, warum die Sozialwissenschaftler in Big-Data-Zusammenhängen weniger weit als die Naturwissenschaften sind: Die organisierte Kriminalität weiß, dass die Polizei Predictive Policing betreibt und könnte daher reagieren (im Grenzfall ihrerseits auf der Basis von Big-Data-Empfehlungen).

Lesen Sie in Kürze: Wie sich Unternehmen gegenüber Kunden und Gesellschaft verändern müssen, um Big Data gewachsen zu sein – Disruptionen von Wirtschaft und Wissenschaft.

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.