Open Password – Montag, den 12. April 2021

# 908

vfm-Frühjahrstagung – Mediendokumentation – Corona – Agile Organisation – Neue Rollen und Workflows – Mario Müller – Seven One.Production – Virtuelle Tagung – Präsenzveranstaltung – Technische Neuerungen – Unternehmensstrategien – Kundenverhalten – Ausbildungsschwerpunkte – Technische Qualifizierung – Künstliche Intelligenz – Musikdokumentation – Gema-Administration – Open Password – Going Green – Zentralbanken – G20-Länder – China – Brasilien – Frankreich – Deutschland – Positive Money – Klimawandel – Ökologische Zusammenbrüche – Research and Advocacy – Verringerung fossiler Brennstoffe – Market Neutrality – Europäische Union – Saudi Arabien – Chinesische Zentralbank – Saubere Kohle – Jair Bolsonaro

Maschinelles Lernen – Bildähnlichkeitssuche – Künstliche Intelligenz – Historische Bibliotheksbestände – Klaus Kempf – Markus Brantl – Thomas Meiers – Thomas Wolf – Extraktion visueller Merkmale – Deskriptoren – Support-Vector-Maschine – Effiziente parallele Suche – Indexdatei – Bayerische Staatsbibliothek – Query by Example – Flankierende Indexierung auf der Basis textueller Metadaten

Interview mit Mario Müller, Vorsitzender vfm: Mediendokumentation inmitten großer Umbrüche

Über den Tellerrand (35): Going Green? Die Zentralbanken der G20-Länder
sind gut auf dem Papier, nicht so sehr im Handeln

 


  1. Titelgeschichte: Maschinelles Lernen – Auf der Suche nach dem verborgenen Bild –
    Künstliche Intelligenz erschließt historische Bibliotheksbestände

vfm-Frühjahrstagung

Mediendokumentation inmitten großer Umbrüche
Herausforderungen „Corona“, „Agile Organisation“
sowie „Neue Rollen und Workflows“

Mario Müller, Vorsitzender des vfm (Festvortrag 2017)

Mario Müller von der Seven.One Production ist Vorsitzender des vfm – Verein für Medieninformation und Mediendokumentation. Open Password sprach mit ihm im Vorfeld der vfm-Frühjahrstagung, eine der wenigen Veranstaltungen der Informationsbranche, die die Jahrzehnte überdauert und sich inhaltlich immer wieder erneuert hat. Das Programm der Frühjahrstagung „Große Freiheit oder Quarantäne – Agile Mediendokumentation in Zeiten von Corona“ mit den Sitzungen „Agile Organisation und Entwicklung“, „Neues aus den Hochschulen“ (einschließlich newcomer-forum), „Technische Innovationen“, „Musik und Dokumentation“ sowie „Neue Rollen und Workflows“ wurde am 24. März in Open Password veröffentlicht. Die Tagung findet vom Montag, den 26. April, bis Mittwoch, den 28. April, statt.

__________________________________________________________________________________

Angesichts der aktuellen Umbrüche erscheint die vfm-Frühjahrstagung wichtiger denn je.

__________________________________________________________________________________

Virtuelle Tagung statt Präsenzveranstaltung, immer noch ein Abenteuer. Was haben Sie getan, um die Frühjahrstagung des vfm zu einem Erfolg zu machen? Sehen Sie auch Vorteile einer virtuellen Tagung im Vergleich zu einer Präsenzveranstaltung? Viele unserer Kolleg:innen bevorzugen eine Präsenzveranstaltung, weil der persönliche fachliche Austausch mit den Kolleg:innen aus den anderen Medienhäusern und Rundfunkanstalten ein wichtiges Motiv ist, unsere Frühjahrstagung zu besuchen. Im Angesicht der Pandemie hatten wir nur die Wahl, die Tagung wie im vergangenen Jahr wieder ausfallen zu lassen oder sie zu einer virtuellen zu machen. Wir haben uns für letzteres entschieden. Die technischen und organisatorischen Entwicklungen in unserer Branche sind so rasant, dass es wichtig ist, sich auf einer zentralen Veranstaltung wie dieser Tagung über die wichtigsten Themen und technischen Innovationen auszutauschen wie auch die neuesten Entwicklungen aufzuzeigen.

Eine virtuelle Tagung hat durchaus ihre Vorteile. Die Reisekosten entfallen und so mancher unentschlossene Teilnehmer meldet sich an, um nur die ihn interessierenden Veranstaltungsblöcke zu besuchen. Dann wollen wir als gemeinnütziger Verein mit dieser Tagung keine Gewinne erwirtschaften. Wo bekommen Sie sonst eine dreitägige Fortbildungsveranstaltung für einen Kostenbeitrag von unter 200 Euro geboten? Wir hoffen natürlich, dass die Veranstaltung auch als virtuelle angenommen wird und ein Erfolg wird. Wir betreten damit Neuland, auch wenn wir uns professionelle Unterstützung an Bord geholt haben. Aber wer nicht wagt, der nicht gewinnt.

Zu den Inhalten der Tagung, wie Sie aus Ihrem Programm hervorgehen (mit Ausnahme der Session 4): Warum haben Sie und ihre Kollegen gerade diese Arbeitsschwerpunkte gewählt? Inwieweit gibt es für die Mediendokumentare gerade hier besondere Risiken und Chancen? Das Tagungsprogramm wird von unserem Programmkomitee zusammengestellt, das sich aus Verantwortlichen einiger Medienunternehmen, Verlage und Rundfunkanstalten zusammensetzt. Wenn unsere Fachbereiche weiter Bestand haben und ihre Zukunft aktiv mitgestalten wollen, sind mehrere Faktoren besonders wichtig. Wir müssen zuvorderst die unternehmerischen Strategien und das Nutzerverhalten unserer Konsumenten kennen. Damit können wir zukünftige Entwicklungen prognostizieren und ableiten, welchen Beitrag wir mit unseren Fachkompetenzen dafür leisten können und wie wir uns dafür aufstellen müssen.

Solches erfordert eine Bereitschaft, sich zu verändern und flexibel darauf zu reagieren. Auch die Ausbildungsschwerpunkte haben wir regelmäßig an die geänderten Anforderungen anzupassen. So sind in Zukunft mehr technologische Fähigkeiten gefordert. Denn wir müssen mit der Flut der zu bearbeitenden und zu distribuierenden Medieninhalte fertig werden. Das geht nur mit Hilfe neuer Technologien. Künstliche Intelligenz hält schon heute Einzug in unseren Arbeitsalltag. Darüber wollen wir informieren und uns austauschen. Dann ist crossmediales Denken entscheidend. Zum Beispiel können alteingesessene Zeitungsverlage nicht mehr erfolgreich sein, wenn sie nicht neben ihren Textnachrichten nicht auch Fotos und Videos platzieren. Ständige Veränderungen erfordern auch ein Umdenken in der Organisation. Andere und neue Arbeitsformen werden ausprobiert. Das ist ein Thema, dass aufgrund der Pandemie verstärkt in den Vordergrund gerückt ist.

Kurzum, was gegenwärtig in unserem Umfeld passiert, empfinde ich unter dem Strich als so spannend, dass ich allen Kolleg:innen nur empfehlen kann, an der Tagung teilzunehmen. Das Risiko ist, nichts zu tun und so weiterzumachen wie bisher. Und was das für Folgen hat, muss ich niemanden erzählen.

__________________________________________________________________________________

Wer in der Musikdokumentation Verwaltung, Recherche und Gema-Administration ganzheitlich verknüpft, wird wachsen.
__________________________________________________________________________________

Sitzung zu „Musik und Dokumentation“. Das haben Sie sich eine schöne Spezialisierung ausgesucht. Immer wieder haben wir auch auf früheren Frühjahrstagungen inhaltliche Schwerpunkte gesetzt wie zum Beispiel bei den Themen Sport- oder Boulevarddokumentation. Die Musik hat gerade bei der Video- und Audioverwertung eine sehr große Bedeutung. Ohne sie geht gar nichts. Deshalb ist es an der Zeit, dieses Thema wieder verstärkt in den Fokus zu rücken. Die verantwortlichen Musikfachbereiche in unseren Medienhäusern sind sehr unterschiedlich aufgestellt. Die Bedeutung derer, die Verwaltung, Recherche und Gema-Administration ganzheitlich verknüpft haben und darüber hinaus neue Technologien einsetzen, werden weiterwachsen und an Einfluss gewinnen. Ich denke, dass uns die Vortragenden zu diesem Thema viele Anregungen geben werden, aus denen wir lernen können.

Wer nimmt teil? Wieviele nehmen nach aktuellem Stand teil? Was erwarten Sie sich von dieser Tagung? Die Teilnehmer:innen aus Deutschland, Österreich und der Schweiz arbeiten im Regelfall in den Rundfunkanstalten, Verlagen, privaten Medienhäusern und kommunalen Einrichtungen.

Wir erwarten wieder spannende Vorträge, einen regen Austausch unter den Teilnehmer:innen und ganz viele Ideen, die wir nach der Tagung mit in unsere Arbeitswelt nehmen können. Natürlich sind wir gespannt, wie das modifizierte Tagungskonzept in dieser virtuellen Form ankommen wird. Wir hoffen auf ganz viel Feedback und Anregungen für die Zukunft.

Open Password wird über die vfm-Frühjahrstagung „Große Freiheit oder Quarantäne – Agile Mediendokumentation in Zeiten von Corona“ berichten.

Über den Tellerrand (36)

Going Green? Die Zentralbanken der G20-Länder
sind gut auf dem Papier, nicht so sehr im Handeln

China führt Ranking vor Brasilien
und Frankreich an, Deutschland auf Platz 7

The Green Central Banking Scorecard – How Green Are G20 Central Banks and Financial Supervisors?, in: http://positivemoney.org/wp-content/uploads/2021/03/Positive-Money-Green-Central-Banking-Scorecard-Report-31-Mar-2021-Single-Pages.pdf. Zentralbanken sind verpflichtet, ökologische Erwägungen in ihre Politik einzubeziehen, wenn sie ihr Mandat erfüllen und die Gefahren des Klimawandels und ökologische Zusammenbrüche verhindern wollen. Wie „grün“ sind die Zentralbanken in den 620-Ländern wirklich? Dies wurde in den Bereichen Forschung und Fürsprache, Geldpolitik, Finanzpolitik sowie „Führung durch das eigene Beispiel“ über Literaturstudien und Gesprächen mit Experten und Vertretern der Zentralbanken ermittelt, mit einem Schulnotensystem (von A – F) bewertet und in ein Ranking gebracht. Während 13 von 20 Ländern die volle Punktzahl im Bereich „Research and Advocacy“ erhielten, wurde in allen Ländern ein weitgehendes Nichtstun im Bereich „Verringerung fossiler Brennstoffe“ festgestellt. Dazu die Autoren: „While further research and advocacy is generally positive, this will not earn additional points for the majority of the institutions assessed here.“

Die Autoren ferner: „Crucially, this report highlights that encouraging the growth of more green activity is no substitute for institutions down their support of all the fossil fuel intensive and ecologically harmful aspects of our financial system. Furthermore, our report shows primary concerns expressed by central banks and commentators about the prospect of „going green“ – that it would threaten the independence of central banks invalidate their sopposed „market neutrality“ serves as little more than a facade to paper over the inherently political nature of policy decisions made by central banks, and current approaches focused on climate-related disclosures and stress tests are insufficient“.

Wie das Ranking in der obigen Tabelle zeigt, wurden die Noten „sehr gut“ und „gut“ keinmal vergeben. Nur China erreichte mit 50 von 130 maximal zu erreichenden Punkten ein „voll befriedigend“, gefolgt von Brasilien und Frankreich mit der jeweiligen Benotung „3 minus“. Neun Länder kamen auf die Note „ausreichend“, darunter die Europäische Union auf Platz 5 mit 33 Punkten und Deutschland auf Platz 7 mit 29 Punkten. Die Schlusslichter jeweils mit der Note „ungenügend“ bildeten Indien, Russland, Südafrika, Türkei, Argentinien und Saudi Arabien.

Die chinesische Zentralbank kam 1995 mit ihrer ersten „grünen Initiative“ heraus, der „Notice on Implementing Credit Policies and Enhancing Environmental Protection“ mit Vorgaben für Banken „how to better include environmental variables in credit decisions“. Das Land verdankt seinen Spitzenplatz unter den G20-Ländern wahrscheinlich seiner engen Koordination mit anderen Regierungsstellen. Allerdings wird das chinesische Konzept einer „sauberen Kohle“ von den Autoren für einen gefährlichen Mythos gehalten. Die brasilianische Regierung verpflichtete die Banken 2008, bei Kreditprüfungen festzustellen, ob sich Investoren im Amazonas an die dort geltenden Umweltvorschriften hielten. Derzeit gilt: „The BCB must ensure that its policies are effectively implemented on the ground. In the context of the current Bolsonaro government, the prospects for social progress and environmental policy in Brazil are weak“.

Maschinelles Lernen

Auf der Suche nach dem verborgenen Bild

Künstliche Intelligenz erschließt
historische Bibliotheksbestände

Extraktion visueller Merkmale, effiziente parallele Suche, flankierende Indexierung
auf der Basis textueller Metadaten

 

Von Klaus Kempf, Markus Brantl, Thomas Meiers und Thomas Wolf

Zweiter Teil

Extraktion visueller Merkmale. Basis der Bildähnlichkeitssuche sind die unterschiedlichen visuellen Eigenschaften eines Bildes, seine spezifischen Farb- und Kanteninformationen, welche zunächst in geeigneter Weise erfasst und codiert werden müssen. Dabei kommen sogenannte Deskriptoren zum Einsatz. Die visuelle Information eines Bildes wird in sehr komprimierter Form gespeichert. In unserem Fall hat der zu einem Bild gehörende Deskriptor einen Umfang von nur 96 Byte. Der visuelle Deskriptor codiert sowohl die Farbeigenschaften als auch die spezifischen Kantenmerkmale.

Zur Erfassung der Farbinformation wird das Bild in 8×8 einheitliche Bereiche zerlegt. Für jeden Bereich werden der durchschnittliche Grauwert (Y-Wert) sowie die Farbwerte Cb und Cr ermittelt. Auf diese Weise erhält man drei Blöcke mit 8×8 Werten, die jeweils einer zweidimensionalen Kosinustransformation unterworfen werden. Die so erhaltenen Koeffizienten werden anhand der Frequenz sortiert und die ersten 15 (Grauwert Y) bzw. zehn Koeffizienten (Farbwerte Cb und Cr) werden als Wert für den Deskriptor übernommen.

Abbildung 2: Kantenhistogramme für die einzelnen Bereiche. Oben links ist das Originalbild, rechts das Kantenbild, darunter Kantenhistogramme für zwei Bildbereiche. Die Abszisse gibt die verschiedenen Kantenorientierungen an.

Zur Darstellung der Kanteninformation wird zunächst ein Kantenfilter auf das Grauwertbild angewandt. Man erhält für jedes Pixel einen Kantenvektor. Ist keine Kante vorhanden, so ist der Kantenvektor ein Nullvektor. Die Kanten werden je nach Länge in drei Klassen eingeteilt:

  • konturlose Flächen (Kantenvektoren sehr klein, in der Abszisse des Histogramms in Bild 2 als Kreis dargestellt);
  • Texturen (Kantenvektoren haben einen mittleren Wert, in Bild 2 graues Symbol in der Abszisse);
  • echte Kanten (Kantenvektoren haben einen hohen Wert, in Bild 2 schwarzes Symbol in der Abszisse).

Bei Texturen werden zwei (senkrecht und waagerecht), bei den echten Kanten vier Richtungen unterschieden (senkrecht, waagerecht sowie die beiden diagonalen Richtungen). Das Bild wird in 16 Bereiche unterteilt (jeweils vier in senkrechter wie in waagerechter Richtung). Für jeden Bereich wird die Häufigkeit der verschiedenen Kanten (Klassen wie Richtungen) ermittelt. Man erhält 16 Kantenhistogramme mit jeweils sieben Werten.

Die Werte aus dem Farblayout sowie die Häufigkeiten der Kanten aus allen 16 Bereichen werden zu einem Vektor zusammengefasst. Als Distanzmaß wird eine L²-Norm genommen, die über eine exp(-x)-Funktion auf eine Ähnlichkeitsskala von 0,0 bis 1,0 abgebildet wird. Dabei kann über einen Faktor der Anteil der Farb- zur Kanteninformation gewichtet werden.

Die Länge des Deskriptors beträgt 96 Byte. Hier fließt ein, dass bei der Speicherung der einzelnen Werte eine Quantisierung auf vier bis acht Bits pro Wert vorgenommen wird. Der geringe Umfang des Deskriptors hat zur Folge, dass kaum Speicherplatz benötigt wird und die Distanzberechnungen sehr schnell erfolgen können (mehrere Millionen Distanzberechnungen pro CPU-Kern in der Sekunde). Ohne die Reduktion der Bildinformation auf Deskriptoren wäre eine Suche über einen solch umfangreichen Bestand (mehr als 54 Millionen Bilder) nicht in Echtzeit durchführbar.

Aussortieren von nicht relevanten Bildern mit Verfahren des maschinellen Lernens. Im Zuge der Vorbereitungen stellte sich schnell heraus, dass die ermittelten Bilder einen sehr großen Anteil an Motiven ohne jeden Informationswert enthielten, welche jedes Suchergebnis verfälschten. Dies sind z. B. einfarbige Flächen, wie sie gerade in Büchern häufig vorkommen (Seitenränder, leere Seiten), Buchdeckel, aber auch Flecken und Risse und die omnipräsenten Besitzstempel. Dazu kommen Inhaltselemente ohne Informationswert als Bild. Hier sind insbesondere Tabellen und Musiknoten zu nennen. Solche Bilder machten anfangs einen Anteil von weit über zwanzig Prozent aus. In einer nachgelagerten Analyse wurden diese Bilder mit Hilfe von Verfahren aus dem Bereich des maschinellen Lernens herausgefiltert.

Hierzu wurden zunächst Klassen über Beispielbilder zusammengestellt. Anschließend wurde für jede Klasse eine einklassige Support-Vector-Machine (SVM) mit einer Gauß-Funktion als Kernel mit den Deskriptoren der Beispielbilder trainiert. Es wurden insgesamt elf Klassen trainiert. Das System ist jederzeit erweiterbar und anpassbar an neue Klassen.

Zur Beurteilung, ob ein Bild behalten oder aussortiert werden soll, wird der Deskriptor nacheinander in alle SVMs eingespeist. Erkennt eine SVM die Zugehörigkeit eines Bildes zu ihrer Klasse, wird es aussortiert. Die Klassifizierung erfolgt sehr schnell, da die Anzahl der Supportvektoren pro SVM im zweistelligen Bereich liegt. Bei elf SVMs sind Distanzberechnungen in der Größenordnung von circa tausend Berechnungen notwendig, die im Bereich von etwa einer Millisekunde Rechenzeit liegen

.

Effiziente parallele Suche. Um die Inhalte des digitalen Bestandes für eine Bildsuche zur Verfügung zu stellen, muss der Bestand zunächst vollständig indexiert werden. Die Indexierung ist ein einmaliger Vorgang, der sehr zeit- und rechenintensiv ist. Für eine vollständige Indexierung des Bestandes der BSB werden rund zwei Wochen benötigt, wobei die Aufgabe auf ein Cluster von über dreißig parallel eingesetzten CPUs verteilt wird. Als Ergebnis erhält man einen Index aller Dateien, welcher die relevanten Suchinformationen enthält. Kommen neue digitalisierte Bücher hinzu, müssen nur diese indexiert werden; der bestehende Index wird entsprechend erweitert. Das Entfernen von Büchern aus dem Index erfolgt nach dem umgekehrten Prinzip.

Die Indexdatei enthält je Bild den bereits erwähnten Deskriptor sowie weitere wichtige Informationen: die ID des Werkes, aus dem das Bild stammt, und die Seitenzahl, auf der es sich befindet. Zusätzlich definieren exakte Pixelkoordinaten die Position des Bildes auf der Seite.

Für die Anwendung wird die Indexdatei bei Start des Servers in den Arbeitsspeicher geladen und ist auf diese Weise sehr schnell zugreifbar. Liegt eine Suchanfrage vor, wird der Deskriptor ermittelt. Befindet sich das Bild der Suchanfrage in der Menge des Bestandes, kann der Deskriptor aus den Indexdaten direkt eruiert werden. Der Deskriptor der Suchanfrage wird mit allen Deskriptoren des Bestandes verglichen. Die jeweils k besten Ergebnisse werden ausgegeben. Die Anzahl k der besten Ergebnisse kann vom Nutzer eingestellt werden.

Zusätzlich wird eine Distanzfunktion benötigt, die den Abstand zweier Deskriptoren angibt. Diese Funktion soll über die Deskriptoren den visuellen Unterschied zweier Bilder möglichst optimal abbilden. Aus der Distanzfunktion wird die Ähnlichkeitsfunktion berechnet, die einen Wert zwischen 0,0 und 1,0 ausgibt. Der Wert 0,0 bedeutet maximale Unähnlichkeit, der Wert 1,0 maximale Ähnlichkeit bzw. Identität.

Im April 2013 stand die erste Version zur Nutzung für die Öffentlichkeit bereit. Bereits damals standen immerhin bereits vier Millionen Bildsegmente zur Verfügung, die aus der Auswertung von 60.000 digitalisierten Werken gewonnen wurden. In den folgenden Jahren wurde diese Zahl auf sechs Millionen Bildsegmente aus 80.000 Bänden gesteigert. Im Jahr 2016 begann eine neue Phase. Die neueste Version der Software erfasst alle Digitalisate der BSB und bietet mittlerweile 54 Millionen Bildsegmente zur Suche an.

Als Suchverfahren wird „Query by example“ angewandt, wobei ein Suchbild vorgegeben wird, zu dem die visuell ähnlichsten Bilder im Bestand recherchiert werden. Die visuelle Suche wird oft als iterativer Vorgang genutzt, bei dem sich der Nutzer schrittweise an die gesuchten Bilder herantastet.

Die Ähnlichkeitssuche wurde als Client–Server-System implementiert. Der Nutzer startet die Bildsuche über einen Webclient. Die Anfrage wird von einem Server bearbeitet, der das Ergebnis an den Webclient zurückgibt.

__________________________________________________________________________________

Flankierende Indexierung auf der Basis der textuellen Metadaten

__________________________________________________________________________________

Ungeachtet der Herausforderung der Indexierung des Bildbestandes stellt sich die Frage, auf welche Weise man den Bestand dem Nutzer zugänglich macht. Denn während man bei einer textbasierten Suche durch einfache Eingabe schnell zu Ergebnissen kommt, verhält es sich bei einem Bildbestand anders. Es galt also, für den Nutzer einen Einstieg zu schaffen. Dies geschah durch eine Kategorisierung in zwei Schritten.

In einem ersten Schritt wurden alle vorhandenen textbasierten strukturellen Metadaten auf Seitenebene ausgewertet und automatisch mit einer Liste mit mehreren hundert Schlüsselbegriffen abgeglichen. Auf diese Weise wurden beispielsweise alle Seiten mit den Schlüsselbegriffen „Bildnis“ oder „Porträt“ der Kategorie „Menschen“ zugeordnet. Begriffe wie „Innenansicht“ und „Seitenschiff“ ließen sich relativ eindeutig dem Thema „Architektur“ zuordnen.

Am Ende stand die Kategorisierung von mehreren Tausend Bildern in den Kategorien „Menschen“, „Architektur“, „Pflanzen“, „Tiere“, „Wappen“ sowie einige weitere.

Im zweiten Schritt wurden auf der Basis der zuvor kategorisierten Bilder Ähnlichkeitssuchen ausgelöst; die damit gefundenen Bilder konnten größtenteils derselben Kategorie zugeordnet werden. Die Kategorisierung erfolgte hier als manueller Prozess, um den kategorisierten Bestand zu vergrößern.

Unabhängig von dieser Maßnahme wurden die textbasierten strukturellen Metadaten für eine Textsuche aufbereitet. Das heißt, der Besucher soll in die Lage versetzt werden, nach „Bildnis“ oder nach sonstigen Begriffen und Namen zu suchen und fündig zu werden.

Lesen Sie in der abschließenden Folge: Die Applikation mit der Upload-Möglichkeit durch den Nutzer – Grenzen der Bildsuche – Fazit und Perspektiven

Open Password

Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum

Neue Ausgaben von Open Password erscheinen viermal in der Woche.

Wer den E-Mai-Service kostenfrei abonnieren möchte – bitte unter www.password-online.de eintragen.

Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.

International Co-operation Partner:

Outsell (London)
Business Industry Information Association/BIIA (Hongkong)

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.