Open Password Archiv Logo

Anzeige






Open Password – Freitag,

den 9. März 2018

#332

 

Dark Data – Philipp Cimiano – Yannick Loonus – Künstliche Intelligenz – Information Professionals – Datenflut – IDC – Cisco – Internet of Things – Datengetriebene Entscheidungsfindung – Information Professionals – Analytics as a Service – Knowledge Graph – Semalytics – Marketing – CRM – Prognostik – Produktentwicklung – Due Diligence – Pharmazeutische Industrie – Finanzbranche – SUMA – Awards – Stipendien

Rückblick 2017 – Ausblick 2018

Zweiter Trend des Jahres:
Big Data und Künstliche Intelligenz

 

Wie InfoPros Dark Data Zähmen

Die Wahlen des Jahres:

  1. Trends des Jahres
  2. Big Data und Künstliche Intelligenz

Philipp Cimiano und Yannick Loonus, Dark Data zähmen: Intelligente Entscheidungsfindung mit datengetriebener Analytik für Information Professionals, 7. März

  1. Bitcoin, Blockchain, Biometrie

Disruptive Technologie mit ganz besonderen Chancen – Bereits viele Anwendungen, obgleich Technologie in den Kinderschuhen steckt, 8. Dezember

  1. Bürgerwissenschaft

Frank Hartmann, Citizen Science, Hochschulen als Brutstätten einer starken Bürgerwissenschaft – Von „Citizen Science light“ bis zur Mitformulierung relevanter Forschungsfragestellungen, 6. Februar

  1. Einrichtung des Jahres
    In der PipelineIII. Information Professional des Jahres
    In der Pipeline
  2. Bibliothekarin des Jahres
    In der Pipeline
  3. Einrichtung des Jahres
    In der Pipeline
  4. Publikation des Jahres

Richard David Lankes, Erwarten Sie mehr!: Verlangen Sie bessere Bibliotheken für eine komplexer gewordene Welt, Berlin 2017

Dark Data zähmen:

Intelligente Entscheidungsfindung
mit datengetriebener Analytik
für Information Professionals

Von Prof. Dr. Philipp Cimiano und Yannick Loonus

________________________________________________________________________

Dark Data zähmen.
________________________________________________________________________

In dem Artikel „Einsatzbereiche der KI und ihre Relevanz für Information Professionals“ (1) (Open Password, 11. Oktober 2017) haben wir den Begriff Dark Data vorgestellt und den Wunsch geäußert, Information Professionals für die Potentiale der Auswertung dieser Datenbestände mit modernen Technologien zu sensibilisieren. In diesem Beitrag vertiefen wir die Thematik und stellen neue Anwendungsfälle für Information Professionals vor. Der Begriff „Dark Data“ beschreibt Daten, die in der Regel unstrukturiert vorliegen und daher nicht für den Erkenntnisgewinn oder als Entscheidungsgrundlage genutzt werden. Je geringer der Anteil von Dark Data im Wissensbestand eines Unternehmens, desto geringer ist das Risiko, falsche Entscheidungen zu treffen oder unternehmerische Chancen zu übersehen.

Unser Datenbestand wächst derzeit mit einer exponentiellen Rate. Exabytes neuer Daten werden jeden einzelnen Tag erstellt (2). Da immer mehr Daten generiert werden, wird es zugleich immer schwieriger, diesen stetig wachsenden Datenstrom zu verstehen.

In diesem Kontext wurden Daten bereits als das „Öl“ der New Economy bezeichnet (3). Mehrere Indikatoren zeigen darüber hinaus, dass das exponentielle Datenwachstum anhalten wird:

  • Volumen: Die Datenströme, die schon heute erzeugt werden, sind riesig. Zum Beispiel generiert Walmart jede Stunde 2,5 Petabytes an Kundentransaktionsdaten. Das entspricht der 167-fache der Menge an Daten, die von der Library of Congress (4) aufbewahrt werden.
  • Wachstumsrate: 90% der heute verfügbaren Daten wurden in den letzten zwei Jahren generiert (5). Die International Data Corporation (6) schätzt, dass alle digitalen Daten, die erstellt, repliziert oder konsumiert werden, zwischen 2005 und 2020 um den Faktor 30 anwachsen und sich alle zwei Jahre verdoppeln. Bis zum Jahr 2020 wird davon ausgegangen, dass es über 40 Billionen Gigabyte an digitalen Daten geben wird, was 5.200 Gigabytes pro Person auf der Erde entspricht (7).
  • Internet of Things: Cisco schätzt, dass derzeit weniger als 1% der physischen Objekte mit IP-Netzwerken verbunden sind (8). Es wird jedoch davon ausgegangen, dass sich dies radikal ändern wird. Bis 2020 sollen nach aktuellen Schätzungen zum Beispiel von Morgan Stanley zwischen 50 und 75 Milliarden Geräte mit dem Internet verbunden sein (9). Das entspricht zwischen sechs und zehn Geräten pro Person auf dem Planeten. Diese Geräte werden in Zukunft permanent Daten in einem beispiellosen Umfang generieren.

Die in einer Organisation verfügbaren Daten stellen ein wichtiges immaterielles Vermögen dar, das sowohl auf operativer als auch auf strategischer Ebene für die Entscheidungsfindung genutzt werden kann. Datengetriebene Analysen haben besonders dann wirtschaftliche Implikationen, wenn sie akkurat sind und zeitnah eingesetzt werden. Die Verwendung von Erkenntnissen, die aus Daten gewonnen werden, ermöglicht es, von einer tendenziell auf Intuition basierenden Entscheidungsfindung zu einer durch Datenanalysen gesicherten Entscheidungsfindung überzugehen. Die Vorteile datengetriebener Entscheidungsfindung zu nutzen, kann für Unternehmen ein entscheidender Wettbewerbsvorteil sein. Information Professionals bilden dabei die kritische Schnittstelle zwischen Datenanalyse und operativer Umsetzung und werden mit komplexen Herausforderungen konfrontiert.

Auch der Umgang mit strukturierten Daten erfordert die Analyse von Textdaten. Große Datensätze bestehen sehr selten aus rein numerischen Daten; tatsächlich enthalten sie immer natürlichsprachliche Elemente wie Spaltenköpfe in Datenbanken, Textdaten im Tabelleninhalt, Metadaten, Dokumentation, Zusammenfassungen und Links zu Dokumenten. Der Umgang mit unstrukturierten Daten verstärkt diese Problematik bis hin zu einem Grad, an dem manuelle Analyse nicht mehr sinnvoll ist. An dieser Stelle sind Analysten auf die Unterstützung intelligenter Systeme angewiesen, welche diese Schritte der Auswertung automatisieren. Information Professionals werden dabei nicht überflüssig. Aber sie bewegen sich auf die nächste Ebene der Wertschöpfungskette, hin zu einer strategischeren Ausrichtung.

Um dies zu bewerkstelligen ist es notwendig, die neuesten Fortschritte in den Bereichen künstliche Intelligenz, maschinelles Lernen und Verarbeitung natürlicher Sprache und Semantik zu nutzen, mit denen sich Erkenntnisse durch die Analyse riesiger und heterogener Datenströme in Echtzeit generieren lassen. Im Idealfall werden diese Technologien im Rahmen einer „Analytics-as-a-service“ Lösung angeboten und diversen Nutzergruppen im Unternehmen zugänglich gemacht. Das setzt wiederum eine intuitive Benutzeroberfläche und maximale Transparenz voraus. Zu oft wird Automatisierung als eine Art Blackbox verstanden, in der für den Endkunden nicht nachvollziehbare Entscheidungen getroffen werden. Endnutzer sollten jedoch in die Lage versetzt werden, das gesamte Analyse-Spektrum von individuellen Datenpunkten bis hin zu Top-Level-Aggregation einzusehen und jederzeit zu verstehen, woraus eine Aggregation besteht.

Auf diese Weise kann Automatisierung genutzt werden, um zwei ehemals entgegengesetzte Ziele zu erreichen. Zum einen können aus gigantischen Datenmengen wiederkehrende Themen identifiziert und Übersichten generiert werden. Zum anderen kann gleichzeitig die Nadel im Heuhaufen gefunden werden. Dies ermöglicht es, die Granularität von Analysen von feinkörnig über grobkörnig bis hin zur Vogelperspektive zu verschieben, in Abhängigkeit davon, welche Ansicht für einen bestimmten Zweck benötigt wird. Information Professionals erstellen Analysen, um diese als Grundlage für Entscheidungen zu verwenden. Die Visualisierung von automatisch aus Daten gewonnenen Erkenntnissen sollte dieses Prinzip beherzigen und den Endnutzer bei der Interpretation und der Weitergabe von Informationen unterstützen.

Die von Semalytix eingesetzte Technologie setzt als zentrales Element auf einen sogenannten Wissensgraphen (englisch: „Knowledge Graph“), der das gesamte für einen Themenbereich relevante Wissen speichert, das aus einer Vielzahl heterogener Quellen extrahiert wird. Der Wissensgraph wird  als Grundlage verwendet, um alle Analysen und Dashboards zu generieren.

Der Wissensgraph wächst nicht nur ständig, vielmehr speichert er alle Informationen über relevante Entitäten in einem gegebenen Anwendungsfeld und beinhaltet Informationen über Organisationen, Kunden und Produkte. Er kennt auch die Beziehungen zwischen diesen Entitäten. Der Knowledge Graph kann also mit einem stark vernetzten Gehirn verglichen werden, das Ordnung und Struktur in das Datenchaos bringt, sich ständig weiterentwickelt, neue Verbindungen hinzufügt und andere stärkt oder schwächt.

Als mögliche Datenquellen kommen dabei Tweets, Blog- und Forumsbeiträge, Word- und PDF-Dokumente sowie EXCEL- und CSV-Daten unabhängig von ihren Inhalten in Frage

________________________________________________________________________

Unterstützung operativer und strategischer Funktionen

________________________________________________________________________

Mit dieser Technologie unterstützen Information Professionals bereits heute diverse operative und strategische Funktionen innerhalb von Unternehmen:

  • Marketing: Lösungen zur Überwachung und Steuerung der Markenreputation – Quantifizierung der Wirkung von Kommunikations- und Marketingstrategien – Lösungen für die direkte Ansprache von aktuellen oder potenziellen Kunden über Micro-Targeting
  • Customer Relationship Management: Lösungen, um Einblicke in Kundenkreise zu gewinnen und Kundenprobleme schneller zu erkennen und zu lösen – Identifizierung von ähnlichen Problemen und Duplikaten – Vorhersage der Service-Desk-Auslastungen in Abhängigkeit von verschiedenen Szenarien
  • Personalisierte Empfehlungen/Produkte: Identifizierung von Kunden, die über fehlende Funktionen klagen oder besonders (un)zufrieden sind, was Möglichkeiten des Up-Selling oder Cross-Selling eröffnet
  • Prognose: Vorhersage von Indikatoren und Kennzahlen wie Umsätze nach Kundentypen und geografischen Segmenten
  • Produktentwicklung: Nutzung von Customer Insights zur Entwicklung neuer Produkte/Geschäftsmodelle und zur Optimierung der Preisgestaltung
  • Portfolio Management & Risk Assessment: Lösungen, um die Wertentwicklung von Assets vorherzusagen und Anlageentscheidungen zu optimieren
  • Due Diligence: Lösungen, um relevante Variablen, Risiken und Chancen zu identifizieren, die eine fundierte Kauf- oder Investitionsentscheidung unterstützen.

Während diese Anwendungsmöglichkeiten grundsätzlich industrieunabhängig sind, haben sich zwei Branchen als Vorreiter bei der Erschließung dieser technischen Möglichkeiten etabliert.

________________________________________________________________________

Fokus: Pharmabranche.

________________________________________________________________________

Die pharmazeutische Industrie steht vor einer Reihe von Herausforderungen. Einerseits haben sich die Kosten für die Arzneimittelentwicklung, auch wenn sie sich aktuell stabilisieren, in den letzten zwanzig Jahren vervierfacht. Zugleich steigt der Druck von Arzneimittelzahlern und Patienten, die Kosten zu senken, während das Umsatzvolumen durch Generika sinkt. Weitere Herausforderungen sind erhöhte Compliance-Kosten, veränderte Vertriebskanäle und der Wechsel von vertriebsorientierten zu ergebnisorientierten Zahlungsmodellen. Darüber hinaus ist die Einführung sogenannter “Biosimilars“ als Nachahmeprodukte existierender Biopharmazeutika langsamer als erwartet verlaufen.

Dennoch sind mit einigen dieser Herausforderungen enorme Chancen verbunden. Zunehmende Vorschriften erfordern bessere Ansätze für die Sammlung und Verwaltung von Datenbeständen. Die sich wandelnden Vertriebskanäle schaffen Druck, neue Kommunikationskanäle für das Marketing zu nutzen und das Engagement der Stakeholder in alternativen Kanälen (zum Beispiel Social Media) zu erhöhen. Um den steigenden Kosten und Umsatzeinbußen durch Generika entgegenzuwirken, müssen die F&E-Prozesse gestrafft werden. Der Siegeszug der personalisierten Medizin als kosten-, daten- und wissensintensives Modell erfordert entsprechende Investitionen.

Wir erwarten, dass datengetriebene Analytik in der Pharmaindustrie einen positiven Einfluss auf die folgenden Aufgabenbereiche haben wird:

  • Einhaltung gesetzlicher Vorschriften: Analysen, um die Kosten für die Einhaltung gesetzlicher Vorschriften zu minimieren.
  • Marketing-/Vertriebsunterstützung: Lernen aus den über Wettbewerbern gesammelten Informationen, um die eigene Marktstrategie zu verfeinern – Einblicke in Kunden durch Integration/Aggregation diverser öffentlicher Quellen und Fachpublikationen.
  • Produkt- und Serviceverbesserung: Integration von Daten aus klinischen Studien, Krankenakten, physischen Notizen, Forschungspapieren, demographischen und sozialen Informationen von Patienten, um Erkenntnisse zu gewinnen, welche die frühen Phasen der Medikamentenentwicklung unterstützen können.
  • Clinical Pathway Delivery: Clinical Pathways sind evidenzbasierte Roadmaps, die helfen, Abweichungen in der klinischen Praxis zu reduzieren. (10) Nach einer Erkrankung des Patienten und dessen Behandlung erhöht sich die Wahrscheinlichkeit verbesserter Ergebnisse und erhöhter Produktivität.
  • Lebenslanges Patientendatenmanagement: Lebenslange Patientendaten werden verwendet, um ein integriertes Verständnis von Patienten zu entwickeln und den Entdeckungsprozess durch eine bessere Ausrichtung auf ungedeckte Bedürfnisse zu entschärfen, die Auswahl von Biomarkern/Subpopulationen zu verbessern und eine schnellere Identifizierung geeigneter Studienpatienten zu unterstützen.
  • Digitale Plattformen: Digitale Plattformen können die Kosten für die Zusammenarbeit mit Patienten und Ärzten drastisch senken.

 

________________________________________________________________________

Fokus: Finanzbranche.

________________________________________________________________________

Die Finanzbranche lebt in einer Zeit, in der der Regulierungsdruck zunimmt und die Konkurrenz durch reine Online-Dienste stark ist. Neue regulatorische und Compliance-Anforderungen legen den Schwerpunkt verstärkt auf Governance und Risikoberichterstattung und machen tiefere und transparentere Analysen in globalen Organisationen erforderlich. Finanzdienstleister wollen große Mengen an Verbraucherdaten über mehrere Servicekanäle (Filiale, Web, Mobile) hinweg nutzen, um neue prädiktive Analysemodelle zu unterstützen, um Verhaltensmuster der Verbraucher aufzudecken und die Konversionsraten zu erhöhen. Prädiktive Kreditrisikomodelle, die große Datenmengen aus dem historischen Zahlungsverhalten nutzen, werden in die Praxis der Verbraucher- und Handelssammlungen übernommen, um die Priorisierung von Inkassotätigkeiten zu unterstützen, indem sie die Neigung zur Delinquenz oder Zahlung bestimmen. Mobile Anwendungen und internetfähige Geräte wie Tablets und Smartphones erhöhen den Druck auf die Fähigkeit von Technologie-Infrastrukturen und -Netzwerken, strukturierte und unstrukturierte Daten aus unterschiedlichen Quellen zu konsumieren, zu indizieren und zu integrieren. Darüber hinaus findet ein signifikanter Übergang vom persönlichen- zum Online-Banking statt, der durch die einfache und erschwingliche Ausführung von Finanztransaktionen nahegelegt wird.

Die Verfügbarkeit neuer Datenquellen wie Social Media, Blogs und anderen Newsfeeds eröffnet neue Möglichkeiten. Wie in allen Online-Märkten ist das Bankwesen hart umkämpft und versuchen die Banken, jede durch Daten identifizierte Cross-Selling- und Up-Selling-Gelegenheit zu nutzen.

In dieser Situation herrscht weitgehend Einigkeit darüber, dass Analytik der Schlüssel zur Entwicklung neuer Geschäftsmodelle ist. Tatsächlich sind 76% der Banken davon überzeugt, die Nutzung großer Datenmengen der Herstellung von Kundenbindung, und -loyalität dienen kann. 71% der Banken sagen, dass sie zur Steigerung des Umsatzes die Kunden besser verstehen müssen und ihnen die großen Kundendaten dabei helfen werden. (11)

Allerdings sind Banken derzeit nur bedingt in der Lage, einen effektiven personalisierten Service zu bieten, weil sie noch viel zu wenig über ihre Kunden wissen. Als künftige Erfolgsfaktoren mit Automatisierungspotential sehen wir:

  • Nutzung großer Datenmengen, um einen 360-Grad-Blick auf jeden Kunden zu erhalten.
  • Höhere Umsätze durch One-to-One-Targeting und personalisierte Angebote in Echtzeit.
  • Höhere Kundenbindung durch personalisierte Kundenbindungsangebote.

Besuchen Sie www.semalytix.de, um das komplette White-Paper „Taming dark data: data-driven insights for smart decision making“ mit Darstellungen zu weiteren Fokus-Industrien zu lesen. Siehe https://semalytix.de/news-publications/.

Quellen:

(1)   Y. Loonus. Einsatzbereiche der KI und ihre Relevanz für Information Professionals, 2017. https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=340&wysijap=subscriptions.

(2)   Robert Pepper and John Garrity. The internet of everything: How the network unleashes the benefits of big data. In: The Global Information Technology Report 2014. World Economic Forum, 2014. http://www3.weforum.org/docs/GITR/2014/GITR_Chapter1.2_2014.pdf

(3)   M. Palmer. Data is the new oil, November 2006. http://ana.blogs.com/maestros/2006/11/data_is_the_new.html

(4)   Beñat Bilbao-Osorio and Soumitra Dutta and Bruno Lanvin (eds.). The Global Information Technology Report, World Economic Forum, 2014. http://www3.weforum.org/docs/WEF_GlobalInformationTechnology_Report_2014.pdf

(5)   SINTEF. Big data, for better or worse: 90% of world’s data generated over last two years. ScienceDaily, May 2013. https://www.sciencedaily.com/releases/2013/05/130522085217.htm

(6)   John F. Gantz, David Schubmehl, Mary Wardley, Gerry Murray, Dan Vesset. A Trillion-Dollar Boost. The Economic Impact of AI on Customer Relationship Management, IDC White Paper, June 2017. https://www.salesforce.com/content/dam/web/en_us/www/documents/white-papers/the-economic-impact-of-ai.pdf

(7)   J. Gantz and D. Reinsel. The digital universe in 2020: Big data, bigger digital shadows, and biggest growth in the far east, December 2012. https://www.emc.com/collateral/analyst-reports/idc-the-digital-universe-in-2020.pdf

(8)   Dave Evans. The Internet of Things: How the Next Evolution of the Internet Is Changing Everything, April 2011. https://www.cisco.com/c/dam/en_us/about/ac79/docs/innov/IoT_IBSG_0411FINAL.pdf

(9)   http://www.businessinsider.com/75-billion-devices-will-be-connected-to-the-internet-by-2020-2013-10?IR=T.

10)  Hipp et al. A Primer on Clinical Pathways, Hospital Pharmacy, May 2016.

Mitteilung der SUMA-EV

Awards als Stipendien

SUMA-Awards sind Preise des SUMA-EV. Sie sollen für die Entwicklung der Suchmaschinen-Technologie und der Vielfalt in der Informationsgewinnung wesentliche Impulse geben. 

Das Wichtigste in Kürze vorweg. Der gemeinnützige Verein SUMA-EV, Trägerverein der datengeschützten Suchmaschine MetaGer (https://metager.de/), vergibt seine SUMA-Awards zukünftig auch als Stipendien. Wenn Sie in Ihrem Studium eine Arbeit zum Thema „Suchmaschinen“ machen, dann können Sie sich für diese Zeit um ein Stipendium bewerben. Das Stipendium ist mit 1000 Euro pro Monat dotiert. Die Förderdauer beträgt im Regelfall ein Semester – dasjenige, in dem Sie diese Arbeit konkret anfertigen. Um sich für ein solches Stipendium zu bewerben, müssen Sie eine Beschreibung Ihrer Arbeit, und einen kurzen Lebenslauf an die Adresse awards@suma-ev.de einsenden. Eine solche Bewerbung können Sie jederzeit einreichen. Sie sollten darin begründen, warum das Thema Ihrer Arbeit von genereller Bedeutung für die Suchmaschinen-Technologie ist, oder werden kann.

Hintergründe. Der SUMA-EV wurde 2004 gegründet, als absehbar war, dass die Zahl der Organisationen, die Suchmaschinen betreiben, drastisch geringer wird. Seit dem Jahr 2007 verleiht der SUMA-EV jährlich seine Awards, um durch kleine Finanzspritzen und PR-Arbeit die Suchmaschinen-Technologie zu fördern und die Wege zum Wissen möglichst breit und offen zu halten.

Vergabeverfahren. Sie können sich mit einem aussagekräftigen Exposé sowie einem kurzen Lebenslauf jederzeit selber bewerben. Wenn der Ihre Arbeit betreuende Professor dazu ein unterstützendes Statement schreibt, ist das hilfreich – aber es ist nicht zwingend erforderlich. Der SUMA-EV entscheidet in einer intern eingerichteten Kommission über die Vergabe der Stipendien.

SUMA-EV & MetaGer-Team, Röselerstr. 3, 30159 Hannover, EMail: office@suma-ev.de

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.