Open Password Archiv Logo

Anzeige






Open Password: Dienstag, den 04.Oktober 2016

Pushdienst 2016#111

Buchmesse – GBI-Genios – Datenbankfrühstück – Textanalyse – Christian Bauckhage – Plagiate – Informationswissenschaft – Walther Umstätter – Thomas Kuhn – Derek J. de Solla Price – Eugene Garfield – Bernd Jörs – Plagiate – Quasi-Plagiate – Informationstheorie  – Wissenschaftlicher Forschritt

Buchmesse

GENIOS Datenbankfrühstück 2016 –

eine der drei wichtigsten Veranstaltungen auf der Buchmesse
für die Informationsbranche

Die neue Textanalyse
und ihre Anwendungen

Das bereits seit den 80er Jahren bestehende GENIOS-Datenbankfrühstück ist eine der drei wichtigsten Veranstaltungen auf der Buchmesse für die Informationsbranche. Wir geben im Folgenden die – von uns leicht gekürzte – Veröffentlichung von GBI-Genios wieder.

  1. Oktober 2016 | 09.30 Uhr | MARITIM Hotel Frankfurt

Auf dem GENIOS Datenbankfrühstück widmen wir uns u.a. der modernen Textanalyse. Kann eine Maschine die Relevanz von Informationen besser als der Mensch beurteilen? Lassen sich Prognosemodelle darauf aufbauen? Wir befassen uns aber nicht nur mit dem Mehrwert der Datenanalyse, sondern wollen weitere Maßnahmen der (Mehr-)Wertschöpfung aus vorhandenen Daten und Inhalten zeigen. Freuen Sie sich auf einen anregenden Vormittag.

Die Veranstaltung ist für Sie kostenfrei. Wir bitten jedoch um Anmeldung.

Programm

09.30 Uhr Akkreditierung

09.45 Uhr Begrüßung & Moderation
Ralf Hennemann, Leiter Vertrieb & Marketing bei GBI-Genios

10.00 Uhr (Mehr-)Wertschöpfung
Werner Müller, Geschäftsführer bei GBI-Genios

Wie funktioniert Wertschöpfung? Mehrwert entsteht durch das Verändern einer „Ware“ auf eine Weise, die sie für den Kunden attraktiver und wertvoller macht. Wir zeigen Ihnen aktuelle Beispiele, wie sich aus vorhandenen Daten und Inhalten durch den am Kundenbedürfnis orientierten Einsatz Mehrwert schaffen lässt.

10.30 Uhr Moderne Textanalyse – Neues Wissen für intelligente Lösungen
Prof. Dr.-Ing. Christian Bauckhage, Fraunhofer-Institut IAIS

Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.

11.15 Uhr Get together

Nutzen Sie die Gelegenheit und erfahren Sie an unseren Newsstationen alle Neuigkeiten rund um GENIOS.de, wiso-net.de sowie die GENIOS eBib-Solution

Prof. Dr.-Ing. Christian Bauckhage ist Professor für Informatik (Mustererkennung) an der Universität Bonn und Lead Scientist für maschinelles Lernen am Fraunhofer Institut für Intelligente Analyse und Informationssysteme in Sankt Augustin. In seiner Forschung fokussiert er auf Theorie und Praxis der statistischen Mustererkennung, des Data Minings und des maschinellen Lernens. Anwendungen seiner Arbeiten reichen von Komponenten für autonome Fahrzeuge über Lernverfahren zur Datenauswertung in den Naturwissenschaften bis zu intelligenzbasierten Lösungen für Social Media Analysis. Das Fraunhofer IAIS gehört zu den führenden Einrichtungen für angewandte Forschung im Bereich der intelligenten Datenanalyse und Wissenserschließung.

Steilvorlagen für den Unternehmenserfolg – „Information Strategies and Solutions in Challenging Times“

Bereits zum vierten Mal ist die Veranstaltung Steilvorlagen für den Unternehmenserfolg – organisiert und durchgeführt von der Frankfurter Buchmesse und dem Arbeitskreis Informationsvermittlung – die Leitveranstaltung für Information Professionals, Informationsvermittler, Großnutzer und Informationsanbieter im Rahmen der Frankfurter Buchmesse.

Jetzt anmelden: http://www.buchmesse.de/infopro16
#infopro16 #fbm16

Grundlagen der Informationswissenschaft

Die Bedeutung von Plagiaten
für den wissenschaftlichen Fortschritt

Von Walther Umstätter

Als Thomas Kuhn sich mit der Frage befasste, wie es zu wissenschaftlichen Revolutionen und damit auch zu wissenschaftlichen Fortschritten kommt, verfügte er nur über Beobachtungen und Erfahrungen aus der Little Science, obwohl schon Derek J. de Solla Price auf den damaligen Wechsel von der Little Science zur Big Science hinwies. Allerdings waren Price, N. Rescher und andere Autoren der Ansicht, dass die Big Science keine große Zukunft haben werde, weil sie zu teuer und ineffektiv sei. Viele meinten, dass nur etwa sieben Prozent der Menschen begabt genug seien, um Wissenschaft zu betreiben. Die meisten Menschen glauben das heute noch und versuchen die Bildungspolitik (wenn auch erfolglos) darauf auszurichten. Dahinter stand die Verwechslung von Genie bzw. geistiger Elite mit Wissenschaftlern, weil das für die Little Science gängiger Glaube war, während Mäzene gezielt besonders begabte Kinder wie C. F. Gauß und F. Schiller zu fördern versuchten. Das unglaubliche Rationalisierungspotential der Digitalisierung, ihre Vernetzung und wachsende Arbeitsteilung bis hin zur Fließbandproduktion von Wissen war für die Wissenschaftsforscher des letzten Jahrhunderts unvorstellbar.

Inzwischen wird immer deutlicher, dass in der Big Science die von der Agnotologie ([1]) untersuchte Ignoranz ein wachsendes Problem wissenschaftlichen Fortschritts geworden ist. Dabei werden immer öfter Erkenntnisse anderer Autoren ignoriert, bezweifelt oder gezielt verfälscht, um sie dann in eigenen Publikationen im Internet anzubieten, nicht zuletzt um Urheberrechte zu erschleichen. Ein verbreiteter Trick sind Plagiate und Quasi-Plagiate ([2]). Durch diese wachsende Redundanz im Publikationswesen nehmen auch die Beiträge mit „kleiner Münze“ ([3]) zu. Nur damit der Plagiatscharakter nicht zu offensichtlich wird, müssen Veröffentlichungen verändert, verfälscht oder abgewandelt werden. Als Urheber von Publikationen, die zur Gruppe der Uncitedness 4([4]) gehören und die als Plagiate oder Quasi-Plagiate erscheinen, ist man trotzdem oft froh, weil sich so wissenschaftlicher Fortschritt dennoch – wenngleich auf illegitimen Wegen – durchsetzt. 

Schon Eugene Garfield hatte im Science Citation Index erkannt, dass Publikationen ab einer gewissen Bekanntheit nicht mehr zitiert werden (Uncitedness 3). Mit einer gewissen Sophistik kann man behaupten, dass es dort Usus ist zu plagiieren. Nehmen wir beispielsweise die Erkenntnis, dass Verlage heute immer öfter digitale Publikationen, deren Verwertungsrechte sie besitzen, verknappen, um die Preise in die Höhe zu treiben. Dieser Gedanke ist meines Wissens erstmals auf einer Tagung geäußert worden und wird seitdem von verschiedenen Autoren ohne Quellenangabe variantenreich wiederholt, weil diese Erkenntnis im Internet als allgemein bekannt gelten kann ([5]). In Wirklichkeit ist sie aber bei weitem nicht so selbstverständlich wie sie klingt, nachdem es einen langen Streit gab, ob Information wirklich eine Ware wie jede andere ist und etliche Verleger bestreiten, dass sie publizierte Information limitieren statt sie umfassend zu verbreiten. Heute macht sich niemand mehr die Mühe, die jeweiligen Urheber in dieser Diskussion zu recherchieren. Und die Aussage N. Wieners: „Information und Entropie bleiben nicht unverändert und sind gleichermaßen ungeeignet, Ware zu sein“ ([6]) ist auch bei den Information Professionals weitgehend unverstanden bzw. in Vergessenheit geraten.

Es wird geschätzt, dass sich das verfügbare Wissen alle 18 Monate, vielleicht auch nur alle 14 Monate verdoppelt. Das Internet wächst nicht nur mit der Zahl an Publikationen, sondern auch mit der Zahl retrospektiver Digitalisierungen. Dazu kommen große Mengen an Daten, die mit herkömmlichen Publikationen wenig zu tun haben. Zum Dritten kommt es zu immer höheren Redundanzen ([7]), in denen gleiche oder ähnliche Dokumente mehrere Male verfasst werden. Für die Urheber ist es gleichwohl viel ärgerlicher, wenn sie im Internet sehen, wie viele ihrer Arbeiten absichtlich totgeschwiegen, verballhornt oder falsch zitiert werden.

Seitdem jeder Wissenschaftler die Möglichkeit hat, seine neuesten Erkenntnisse im Internet zu präsentieren, und das Peer-Reviewing bekannter Zeitschriften als Qualitätskontrolle immer öfter versagt,[8] werden Kriterien wie Zitationshäufigkeiten bzw. Journal Impact Factors immer irreführender. Dazu kommt, dass sich die Verlage häufiger selbst zitieren, um Bekanntheit vorzutäuschen. Insofern ist es oft aussagekräftiger, wenn sich ein Autor in einem Plagiat neben den eigentlichen Urheber stellt, als wenn fünfzig Autoren bekannte Publikationen zitieren, nur um ihre Belesenheit zu demonstrieren.  Die Erfahrung zeigt, wie viele Autoren Arbeiten falsch zitieren. Dies geschieht aus den verschiedenen Gründen der Agnotologie, aus Flüchtigkeitsfehlern oder aus der Hoffnung heraus, dass es sowieso niemand nachprüft. Auch die Information Professionals sehen im Allgemeinen über solche Zitationsfehler hinweg. Stattdessen vermuten einige ihre Aufgabe mehr in „Reskilling-Programms für IP“ ([9]).

Wenn B. Jörs in diesem Zusammenhang rhetorisch fragt: „Wissen Sie, wie lange Ihre Nutzer an Lesezeit für elektronische Artikel durchschnittlich aufbringen? Drei Minuten“ (bemerkenswerterweise ohne Quellenangabe), dann ist das mit Sicherheit kein wirkliches Lesen, geschweige Hinterfragen eines Artikels, sondern nur das „Sichten“ („Browsing“, „Screening“),[10] um zu entscheiden, ob man diesen Artikel genauer lesen sollte oder nicht. Schon im Weinberg-Report (1963) schätzte eine damalige Studie des Biological Abstracts Service, dass ein Biologe im Durchschnitt jährlich 5.000 Titel sichtet. Wenn man 20% der Arbeitszeit für Literatur und die Hälfte der Zeit für eingehende Literaturstudien rechnet, bleiben etwa drei Minuten pro Artikel zum Sichten. Wie man sieht, hat das noch nichts mit der Digitalisierung zu tun, sondern mit der Zeit, die man braucht, um einen Artikel für sich als ir/relevant einzuordnen. Aus zeitlichen Gründen können wir nur etwa ein Hundertstel dessen wirklich lesen, was wir sichten. Es wäre sicher nicht gut, wenn Information Professionals ihren Klienten erzählen, dass Nutzer zehn Minuten zum Lesen eines Buches benötigen. Das ist ein zu offensichtlicher Unsinn und würde das Vertrauen in diese Profession noch weiter unterminieren.

Bei Begriffen wie Information, Redundanz, Wissen oder Bewusstsein findet man eine Vielzahl von Definitionen mit eigenen Urheberrechten und Eigeninteressen, auch wenn bei genauerer Betrachtung rasch deutlich wird, dass die Erkenntnisse von Shannon, Weaver, Wiener und anderen meist völlig falsch zitiert oder auch schlicht ignoriert werden. Wissenschaftlicher Fortschritt wird so massiv gebremst, auch wenn die Erfahrungen der Wissenschaftsforschung zeigen, dass sich letztendlich doch die Wahrheit, die Logik und fundiertes Wissen durchsetzen. Es sind aber bei weitem nicht die wahren Urheber, die neuen Erkenntnissen zum Durchbruch verhelfen, sondern weit öfter die vielen gleichgesinnten Autoren von Plagiaten. Schon N. Wiener fühlte sich weitgehend übergangen, als die Informationstheorie von C. Shannon nach dem zweiten Weltkrieg das erlebte, was man heute einen Hype nennt. Auch Shannons Arbeit von 1948 wurde erst durch Weaver 1949 weitgehend bekannt. Inzwischen gibt es von dieser Theorie so viele Pseudo-Plagiate, dass die Informationstheorie als Grundlage der Informationswissenschaft weitgehend zugrunde gegangen ist und auf eine neue Generation von Informationswissenschaftlern wartet.

Dabei gilt noch immer, dass die Informationswissenschaft eine wichtige Grundlage für die Wiedervereinigung von Geistes- und Naturwissenschaft wäre. Denn wie schon N. Wiener richtig erkannte, ist „Information weder Materie noch Energie“ – sie ist ein wahrscheinlichkeitsbasiertes Maß für Ordnung. Darum ergab sie sich bei Shannon auch aus der Entropie – mit einem negativen Vorzeichen.

Nun brauchen wir nur noch eine kritische Menge an Menschen, die das verstehen, neu publizieren und und wieder geistig weiterentwickeln, damit die Informationswissenschaft erneut explodieren kann.

[1]     Open Password: Montag, den 8. August 2016

[2]     http://de.vroniplag.wikia.com/wiki/Quelle:Bf/Umst%C3%A4tter_2000

[3]     www.degruyter.com/downloadpdf/j/bfup.2014.38.issue-2/bfp-2014-0001/bfp-2014-0001.xml

[4]     https://books.google.de/books?id=xtQlZazSuaIC&pg=PA62&lpg=PA62&dq=uncitedness+4&source=bl&ots=HmDkoLqKvz&sig=S2P92_P9_y157FjZHM6nhCYiLNs&hl=de&sa=X&ved=0ahUKEwio1Lyx3_jOAhWjAJoKHVL3CQsQ6AEIMjAD#v=onepage&q=uncitedness%204&f=false

[5]     https://irights.info/artikel/verwandte-schutzrechte-ausweitung/27530

[6]     www.ib.hu-berlin.de/~wumsta/infopub/que/que11.html

[7]     http://docplayer.org/15697652-Integritaet-wissenschaftlicher-publikationen-in-der-digitalen-bibliothek-wissenschaftsforschung-jahrbuch-2007.html

[8]     https://libreas.wordpress.com/2012/06/06/peer-review-eine-entscheidungsfrage-fur-kleine-zeitschriften/

[9]     Jörs, B.: Ein Reskilling-Programm für Information Professionals.Open Password. 12.9.2016

[10]   www.ib.hu-berlin.de/~wumsta/infopub/Bibwert12.pdf

 

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.