Open Password Archiv Logo

Anzeige






Open Password: Freitag, den 29. Juli 2016

TIB – Digitalisierung, Big Data und die Aufgabe der Theorie – PokemonGo – Darknet – Nach den Anschlägen – ReQuest – Deep Web – Freies Web

Die Branche twittert

Zum fünften Mal TOTAL-E-Quality
für die TIB

Digitalisierung, Big Data
und die Aufgabe der Theorie

Neue Kunden für Bibliotheken
durch PokemonGO

Nach Würzburg, München und Ansbach:
Darknet nicht nur ein Verbrechernetz

TIB ‏@tibub: Wir freuen uns: die TIB wird bereits zum 5. Mal mit dem TOTAL E-QUALITY Prädikat für Chancengleichheit ausgezeichnet!

René König@R_Koenig: Tagung: Digitalisierung, Big Data und die Aufgabe der Theorie, 16.-18.09., Lübeck http://www.hsozkult.de/event/id/termine-31587 …

Büchereien Wien@buechereiwien: Ja, mit geschickten Aktionen bringt #PokemonGO Bibliotheken neue Kunden!

netzpolitik@netzpolitik: Wir nutzen „das Darknet“ für unsere redaktionelle Arbeit, um Quellen und unsere Recherchen zu schützen. Für Pressefreiheit sehr wichtig.

ReQuest: Der Wettbewerb

Vorteile, Nachteile, Risiken und Chancen
der Informationsrecherche
im Tiefen und Freien Web

Zusammengefasst und kommentiert von Willi Bredemeier

Zweiter Teil

Informationsrecherchen im Tiefen Web im Vergleich zu Informationsrecherchen im Freien Web. Dazu ließen wir im ersten Teil unseres Berichtes die Teams im ReQuest-Wettbewerb  von der TH Köln, der Universität Hildesheim und „Düsseldorf I“ zu Basiskonzepten, Mengen und Einsatzbereichen von Suchen im Tiefen Web zu Wort kommen. Damit gelangten wir zu den entscheidenden Fragen: Was sind die Vorteile, Nachteile, Chancen und Recherchen für Informationsrecherchen im Tiefen Web – dies vor allem im Vergleich zu den Freien Web? Welche Schlussfolgerungen sind für die Unternehmen und ihre Information Professionals zu ziehen? Wie im ersten Teil wurden die Zitate der Teams gelegentlich leicht redigiert, beispielsweise, um Schreibfehler zu eliminieren
___________________________________________________________________________

Informationsrecherchen im Tiefen Web: Eine kompakte Zusammenfassung aus dem BASF.

___________________________________________________________________________

Eine der State-of-the-Art-Stellungnahmen zum Stand der Informationsrecherchen, die uns besonders gefiel, stammt nicht von Studierenden, sondern wurde im Rahmen von Expertengesprächen vom Team „Düsseldorf II“ erhoben. Das Statement stammt von Dr. Köster von der BASF (Seite 5):

„Derzeit ist die Verwendung von Google bei wissenschaftlichen Recherchen sehr zeitraubend und außerdem nicht allumfassend. Üblicherweise werden deshalb für professionell durchgeführte Recherchen komplexe Suchanfragen in Fachgebietsdatenbanken des Deep Webs durchgeführt, die beispielsweise vom Fachinformationszentrum Karlsruhe angeboten werden. Nur in sorgfältig erstellten Fachgebietsdatenbanken ist es möglich, effizient und zielgenau nach einer bestimmten Thematik zu recherchieren. Neben einigen wenigen kostenlosen und frei zugänglichen Informationsquellen existieren deshalb seit langem kommerzielle Literaturdatenbanken und Faktendatenbanken, die diesen Mehrwert bieten. Die meisten dieser Fachgebietsdatenbanken sind in englischer Sprache verfasst und enthalten neben den bibliographischen Angaben eine Zusammenfassung (Abstract) sowie Deskriptoren aus einem kontrollierten Vokabular und fachgebietsspezifische Indexierungen, z. B. für chemische Strukturen. Für die Interpretation der Fragestellungen und die alleinverantwortliche Erstellung auch von geschäftskritischen Informationsanalysen in den Gebieten Wissenschaft, Technik, Regulatorik, Patente oder Wirtschaft ist eine fachspezifische akademische Ausbildung des Rechercheurs als Grundlage erforderlich, die der eines Forschers oder Entwicklers entspricht.“

___________________________________________________________________________

Vom Team „Düsseldorf I“ eine ausdrückliche SWOT-Analyse

___________________________________________________________________________

Eine ausdrückliche SWOT-Analyse, das heißt eine Bewertung des Deep Web nach Vorteilen, Nachteilen, Chancen und Risiken, wurde gleichfalls von „Düsseldorf II“ angestellt:

Die Stärken des Free Webs liegen in der schnellen und einfachen Erreichbarkeit. Da hier oft eine breite Masse angesprochen wird, sind Inhalte zudem oft verständlich formuliert und einfach zu bedienen. Was im Free Web gelesen, angeschaut und herunter geladen wird, ist häufig kostenlos. Ohne viel Mühe oder einen Experten zu Rate zu ziehen ist es möglich, sich zu informieren und Angebote und Preise zu vergleichen. Viele Informationen, auch zu schwierigeren Themen, werden visuell aufbereitet und ansprechend gestaltet. Für Informationen aus dem Free Web werden keine Lizenzen benötigt, wobei jeder das gleiche Recht und die gleichen Möglichkeiten hat. Hier werden Themen nicht nur mit Text, sondern mit einer großen Auswahl an Medien – mit Videos, Prodcasts, Bildern, Musik – dargestellt und behandelt.

Trotz vieler Stärken weist das Free Web auch viele Schwächen auf. Viele Seiten, die hinsichtlich des Suchterms „Smart Home Security“ untersucht wurden, enthielten externe Werbung. Es sollte auch nicht außer Acht gelassen werden, dass Google Werbeanzeigen enthält, die durch Suchmaschinenoptimierung (SEO) gepusht werden. Ebenfalls liegt der Positionierung von Treffern SEO zugrunde, was dafür sorgt, dass einige Treffer auf den ersten Seiten und andere weiter hinten platziert werden. Die Frage, ob das Free Web qualitativ hochwertige Forschungsergebnisse enthält, wird kontrovers diskutiert. Diesbezüglich sollte an dieser Stelle erwähnt werden, dass im Free Web viele subjektive Informationen vorhanden sind, die aus Erfahrungen und Meinungen resultieren und nicht zwingend aus wissenschaftlichen Vorgehensweisen. Dies suggeriert auch die Gefahr, dass nicht alles, was Nutzer im Free Web lesen und finden, der Wahrheit entsprechen muss. Innerhalb der evaluierten vierzig Treffer befand sich kein wissenschaftlicher Artikel, und lediglich drei Treffer enthielten Quellen. Auf Grund der hohen Anzahl an Treffern und der starken Vertretung von Anbietern erleidet der Nutzer, auch wenn dieser durchschnittlich nur die ersten zehn Treffer für sein Informationsbedürfnis betrachtet, eine Reizüberflutung. Als letzte Schwäche hat sich eine Grenze in der thematischen Abhandlung von „Smart Home“ sowie „Smart Home Security“ gezeigt. Wie sieht es zum Beispiel mit den technischen Details hinsichtlich der Forschung und Entwicklung aus sowie mit Prognosen für die Zukunft? An dieser Stelle lässt sich sagen, dass das Free Web diesbezüglich eine Lücke aufweist, die durch andere Systeme und Bereiche gedeckt werden muss.

Neben Stärken und Schwächen lassen sich auch Chancen des Free Web für das hier durchgeführte Fallbeispiel festhalten. Das Free Web erreicht mehr Nutzer, da es kostenlos und frei zugänglich ist. Dementsprechend befinden sich im Free Web auch diverse Meinungen, Interessen und Erfahrungen der Nutzer. Des Weiteren besitzt das Free Web das Potenzial, eine Plattform für freie Meinungsäußerung zu sein, die durch die Community in Social-Media-Diensten unterstützt wird. Eine weitere Chance, die sich im Free Web herauskristallisiert, ist die einfache Struktur von Sätzen und dem verwendeten Sprachvokabular.

Diese Chancen gehen jedoch mit Risiken einher: Während wissenschaftliche Artikel Prüfprozessen unterliegen, ist dies bei vielen Seiten, die im Free Web frei zugänglich sind, nicht der Fall. Diesbezüglich müssen Nutzer die Informationen, die sie betrachten, hinterfragen, da sie nicht immer der Wahrheit entsprechen müssen und – wie auch die Untersuchung gezeigt hat – nicht durch (wissenschaftliche) Quellen belegt sind. Ebenfalls befinden sich Plagiate im Free Web, die auf Grund fehlender Qualitätskontrolle nicht erkannt werden. Außerdem sollten Nutzer bei Onlineshops aufmerksam sein, da sich auch hinter diesen Betrugsversuche verbergen können. Um solche Risiken zu vermeiden, eignen sich Zertifikate, die einige von den vierzig Treffern auch aufweisen. Darüber hinaus war es auffällig, dass besonders bei kommerziellen Seiten versucht wird, die Nutzer zu beeinflussen.  …

Auch für das Deep Web lassen sich die Ergebnisse anschaulich nach der SWOT-Analyse gliedern. … Das Deep Web zeigt viele Stärken gegenüber dem Free Web in Bezug darauf, qualitativ gute Informationen zu finden. Im Rahmen dieser Untersuchung fanden sich ausgewählte und geprüfte Informationsangebote von vertrauenswürdigen Quellen wie beispielsweise Business Wire oder Wirtschaftswoche. Diese Qualitätsprüfung findet bei Suchmaschinendiensten wie Google oder Bing nicht statt. In Ergänzung dazu muss erwähnt werden, dass bei Hosts wie ProQuest die Möglichkeit besteht, auf wissenschaftliche Publikationen wie Dissertationen zuzugreifen. Ebenfalls positiv ist die Erschließung der Dokumente im Deep Web. Zum einen können durch kontrolliertes Vokabular auch ausschließlich relevante Dokumente gefunden werden, wie es sich während der Recherche bei ProQuest, wiso und Nexis gezeigt hat. Zum anderen ist die von diesen Hosts angebotene Suchumgebung – anders als Google oder Bing – in der Lage, Felder zu unterscheiden: So gelang bei den drei Hosts eine Unterscheidung zwischen Autor und Titel, was ein effektiveres Suchen und Finden erlaubt.

Neben den positiven Aspekten von Deep-Web-Angeboten zeigen sie auch einige Schwächen. Ein großer Nachteil ist der beschränkte Zugriff auf die Informationsangebote. Während bei wiso frei recherchiert werden kann, ist das Anzeigen und Speichern des Dokumentes an einen personalisierten und kostenpflichten Zugang gebunden. Die Möglichkeit, Dokumente über Social-Media-Dienste zu teilen, bietet bisher nur wiso an. Allerdings bleibt der geteilte Link weiterhin zugriffsbeschränkt – eine wiso-Lizenz ist also weiterhin notwendig. Darüber hinaus sollte ein Nutzer Kenntnisse in der Formulierung von Suchanfragen bei den Hosts mitbringen. Als Beispiel dafür seien hier Boolesche Operatoren und Phrasensuchen erwähnt, welche präzise und differenzierte Suchanfragen ermöglichen. Alle drei Hosts lassen zum Beispiel die Kombination von Suchbegriffen mit den Operatoren AND, NOT oder OR zu – womit Treffermengen stark beeinflusst werden können. Zudem sind Begriffskombinationen in Anführungszeichen als Phrase eine weitere Verfeinerung. Beides findet sich allerdings auch bei Suchmaschinenanbietern wie Google wieder.

Neben den oben genannten Stärken bieten Deep-Web-Informationsangebote auch Chancen. Beispielsweise ist es bei Hosts wie wiso möglich, über Kategorien, also Marktdaten oder Firmeninformationen, zu suchen und so auf Informationen aufmerksam zu werden, die nicht vom Suchbegriff selbst abgedeckt sind. Diese Umfeldsuche kann gerade für Unternehmen ein entscheidender Wettbewerbsfaktor sein, da sie dadurch auf potenzielle Geschäftspartner (Merger & Acquisitions) in neuen Marktsegmenten aufmerksam werden können. Darüber hinaus weisen Deep-Web-Datenbanken Inhalte auf, die über das Free Web nicht (oder nur sehr schwer) zu finden sind. …

Ein großes Risiko bei der Verwendung von Deep-Web-Datenbanken sind sehr hohe Kosten für Nutzer. Von den hier eingesetzten Hosts wiso, Nexis und ProQuest bietet nur wiso eine kosten- und zugangsfreie Recherche an. Bei Nexis und ProQuest ist kein Zugriff ohne Anmeldung oder Zahlung möglich. Ein weiteres Risiko bei der Nutzung von Deep-Web-Angeboten stellen geringe Erfahrungen eines Nutzers dar. Wenn der Nutzer wenige Kenntnisse im Umgang mit Deep-Web-Umgebungen hat, ist es möglich, dass die Potenziale einer solchen Datenbank nicht ausgeschöpft werden. In der Konsequenz könnten dann die wirklich relevanten Inhalte im Verborgenen bleiben – und die Kosten je nach Bezahlmodell immens hoch werden.“ __________________________________________________________________________

Ganz unterschiedliche Recherchestrategien für TTIP, PikeOS und Borreliose.

___________________________________________________________________________

Das Team von der Hochschule Anhalt-Koethen ging besonders auf den Verlauf und die Ergebnisse von Recherchen zu TTIP (angestrebtes Freihandelsabkommen der EU mit den USA), PikeOS (Betriebssystem für sicherheitskritische Anwendungen) und Borelliose (Infektionskrankheit) ein. Die Recherchen verliefen sehr unterschiedlich und sind somit ein Beleg, dass es kein Standardrezept für erfolgreiches Finden gibt und die besondere Kompetenz der Information Professionals weiter benötigt wird. Die Quellenlage stellte das Team anschließend wie folgt dar:

„TTIP:
Free Web: Viel subjektives Material
Fachspezifische Datenbanken: Historisch gut dokumentiert, allerdings nur Zeitungsartikel
Kostenpflichtige Dienste: Sehr spezifische Ergebnisse
Seiten mit besonderer Zugangsberechtigung/Intranet: Globale Sichtweise
Media Monitoring: Meinungen politischer Instanzen

PikeOS:
Free Web: Keine detaillierten Informationen
Fachspezifische Datenbanken: Lediglich Artikel von Fachzeitschriften
Kostenpflichtige Dienste: Keine kostenpflichtigen Dienste verfügbar
Seiten mit besonderer Zugangsberechtigung/Intranet: Genaue Dokumentation der Software Sysgo.com
Media Monitoring: Kein Media Monitoring vorhanden

Borreliose:
Free Web: Sehr viele subjektive Meinungen zum Krankheitsbild
Fachspezifische Datenbanken: Subjektive und objektive Bechreibungen des Krankheitsbildes
Kostenpflichtige Dienste: Qualitativ hochwertige Ergebnisse in Ärzteforen
Seiten mit besonderer Zugangsberechtigung/Intranet: Lediglich Ärzten und Gesundheitswesen vorbehalten
Media Monitoring: Persönliche Erfahrungen, subjektive Meinungen der Betroffenen“.

Diese Ergebnisse wurden von Anhalt-Koethen wie folgt kommentiert:

„1. Suche auf einschlägigen Seiten im Free Web. Vergleicht man die Suchergebnisse, die man auf diesen Seiten findet, mit denen einer Standardsuche auf Google, fällt auf, dass die Suche dort wesentlich treffsicherer erfolgt. Deren Ergebnisse sind oft kurzgefasste,  leicht verständliche Artikel, die zu einem Einstieg in das Recherchethema genügen, jedoch nicht mit den Dokumenten vergleichbar sind, die auf spezifischen Webseiten angeboten werden. Dort werden aktuelle Dokumente in ungekürzter Version bereitgestellt, deren Verfasser sich meist intensiver mit den Themen beschäftigen und das Thema daher auch objektiv und im Kontext beurteilen können. Diese Webseiten fallen zwar nicht unter das Deep Web, werden hier jedoch trotzdem aufgeführt, da die Suchergebnisse bezüglich TTIP viel treffendes Material lieferten.

  1. Fachspezifische Datenbanken. Bei dem etwas neuerem Themengebiet TTIP konnten entgegen den Erwartungen wenig tiefgreifende Informationen aus Datenbanken gewonnen werden. Zu dem im Gegensatz dazu sehr umfangreich untersuchten Krankheit Borreliose konnten ausreichend viele und fundierte Ergebnisse gefunden werden. Eine Recherche in spezifischen Datenbanken ist daher bei historisch bedingtem Informationsbedarf nützlich. Dies wird auch durch den Aspekt gestützt, dass die Suche zum Thema TTIP zwar weniger sachkundige Ergebnisse liefert, dafür aber Dokumente historisch lückenlos bis zu dem Beginn der Verhandlungen anbietet.
  2. Kostenpflichtige Dienste. Auch für ein sehr spezifisches Thema wie dem Betriebsystem PikeOS war die Suche nur in einer spezifischen Datenbank erfolgreich, die zudem kostenpflichtig war. Werden Informationen zu einem sehr detailreichen, seltenen Thema gesucht, wird der Zugang oftmals nur durch ein Entgelt bereitgestellt. Auch die Onlinebibliothek von Springer bietet kostenpflichtige Dokumente an. Dort konnten zu TTIP und Borreliose derartige Dokumente erworben werden, die allerdings im Gegensatz zu Informationen im Free Web oft von einer Instanz auf Richtigkeit geprüft wurden.
  3. Seiten mit besonderer Zugangsberechtigung/Intranet. (Angesichts des begrenzten Umfangs) dieser Arbeit konnte leider kein Zugang zu firmeneigenen Intranets gewonnen werden, jedoch trifft auch hierfür zu, dass, um an spezifische Informationen zu seltenen Themen zu gelangen, eine besondere Zugangsberechtigung benötigt wird. Nicht umsonst gibt es das Feld der Wirtschaftsspionage, auf dem Firmen mit unterschiedlichen Mitteln versuchen, an Informationen von Konkurrenten zu gelangen. Ein Zugriff auf spezielle Webseiten kann aber auch durch einen Geoblocker verhindert werden. Gerade zu internationalen Themen wie TTIP wären Informationen und besonders andere nationale oder globale Sichtweisen interessant, die durch diese Art von Sperre verhindert werden, allerdings mit wenig Aufwand umgangen werden können.
  4. Media Monitoring. Überraschend war die Suche zu dem politischen Thema TTIP mittels Social Media Monitoring. Sie liefert in diesem Beispiel völlig andere Informationen und eine einfache Möglichkeit zur Kontaktaufnahme mit den entsprechenden Leuten. Das Beispiel PikeOS hingegen lieferte so gut wie keine Ergebnisse, da es nur für einen kleinen Prozentsatz an Leuten interessant ist. (Zur) Borreliose lässt sich hingegen ein großer undaktueller Umfang an Beiträgen finden, die allerdings sehr persönlich und daher für eine Suche nach informativen Dokumenten ungeeignet sind.“

___________________________________________________________________________

Die komparativen Vorteile der Datenbankanbieter

___________________________________________________________________________

Die komparativen Vorteile der Datenbankanbieter wurden vom Team der TH Köln wie folgt zusammengefasst (Seiten 11,12):

  • „Datenbankhosts bieten ihren Nutzern nicht nur den Erwerb von qualitativ hochwertigen Informationen an, sondern auch die Erlaubnis, diese wertschöpfend zu nutzen.“
  • „Informationen liegen vollständiger und strukturierter vor.“ Es gibt keine „uneinheitliche Datenstruktur von verschiedenen Anbietern.“
  • Das Ergebnis ist „nachvollziehbar, wiederholbar und direkt von der Qualität der Suchanfrage abhängig“.
  • Die Nutzer wollen auf einer Website vor allem leicht navigieren sowie ihrer Website vertrauen (Princeton Survey Research Associates: A Matter of Trust: What Users Want From Web Sites, 2002).

___________________________________________________________________________

Mit dem Blick in die Zukunft und der Ableitung von Handlungsempfehlungen tun sich nicht nur Studierende schwer.

___________________________________________________________________________

Kommen wir zu den Trends und den abgeleiteten Handlungsempfehlungen. Hier wiederholt sich eine Erfahrung, die sich häufig bei der Lektüre allgemeiner Forschung einstellt. Die Gegenwart lässt sich prächtig beschreiben und fallen Erklärungen, warum alles so gekommen ist, leicht. Jedoch die Zukunft ist dunkel und die Ableitung von Handlungsempfehlungen fällt schwer, wenn man sich nicht auf Triviales beschränken oder nicht falsch liegen will.

Im Folgenden beschränken wir uns auf einen Ausblick auf die Zukunft, die vom Team „Düsseldorf I“ au der Grundlage ihrer Expertenumfrage zusammengestellt wurde, und die beispielsweise diese nicht selbstverständliche Handlungsempfehlung – „Blicken Sie bei Ihren Recherchen gelegentlich über den Tellerrand!“ – enthält:

„Dem Kunden ist es heutzutage lieber, relevante Daten aus einer Fachdatenbank zu erhalten, als aus dem freien Web, da diese oft als nicht vertrauenswürdig betrachtet werden (Wilke, 2015). In den letzten Jahren unterstützen automatisierte oder teilautomatisierte Monitoringsysteme den Informationsdienstleister in seiner Tätigkeit. Die Abgrenzung zwischen Data Analytics und Recherche wird geringer (Schmidt, 2015). Dass Unternehmen und Agenturen für ihre Kunden regelmäßig Sentimentanalysen durchführen, zeigt, dass dies ein Standard geworden und somit auch nicht mehr wegzudenken ist (Schönhalz, 2015). Eine Verschmelzung ursprünglich verschiedener Tools wird verstärkt gewünscht, wie z.B. nicht mehr ausschließliches Monitoring, sondern auch direkt die Möglichkeit, dem Kunden via Social-Media-Quellen Feedback zu geben (Schönhalz, 2015). Resonanzanalysen, die Free-Web-Recherchen und die Bewertung resultierender Inhalte benötigen, werden häufig auch durch externe Anbieter durchgeführt oder mit Hilfe von entsprechenden marktgängigen Tools einschlägiger Anbieter in-house durchgeführt (Schmidt 2015). Durch die unterschiedlichen und zum Teil spezifizierten Anfragen der Kunden ist der Blick über den Tellerrand heutzutage kaum mehr vorhanden – es wird also nicht mehr in anderen Branchen nach Ideen gesucht,um die Kreativität der Entscheider auszudehnen (Klems, 2015).“

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.