Open Password Archiv Logo

Anzeige






Open Password – Mittwoch, den 14. Juli 2021

# 947

vfm-Frühjahrstagung – Technische Innovationen – Automatische Transkription von Videos – Fernsehen 3.0 – Automatisierte Sentimentanalyse – KI-generierte Metadaten – Stefan Hauff-Hartig – Erschließung von Audio- und Video-Dateien – Fraunhofer Audio Mining – Christoph Schmidt – Fraunhofer-Institut für Intelligente Analyse und Informationssysteme – ARD-Tagesschau – Live-Erkenner – Multilingualität – Deutsche Welle – Jakob Rosinski – Watson – IBM – Automatisierte Sport-Highlights – Automatisierung von Kameraeinstellungen – Re-Broadcasting – Medienarchivare – Joanna Bars – Deutsches Rundfunkarchiv – Nikolaus Korfhage – Philipps-Universität Marburg – Kader Pustu-Iren – TIB Hannover – VIVA – Gesichtserkennung – Convolutional Network – Fesad – Dirk Maroni – Westdeutscher Rundfunk – Data Analytics – Content Analytics – Roboter-Journalismus – WDR KIMD – Erlebnisbewertung – ARD Crossmediale Suche – Zukunft der Informationswissenschaft – Praxistauglichkeit – LexisNexis Risk Solutions – True Cost of Financial Crime Compliance Global Report – U.S. – Germany – Customer Risk Profiling – Sanctions Screening – Regulatory Reporting – Identifying Politically Exposed Persons – KYC for Account Onboarding and Alerts Resolution – Pandemic Impact – Technology Investments – BIIA – dpa – Factchecking – Fake News – Desinformationen – Google News Initiative – Journalismus – Alexandra Borchardt – Baybars Örsek

I.
Titelgeschichte

Session: Technische Innovationen: Automatische Transkription von Videos – Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel – KI-generierte Metadaten: Von der Technologiebeobachtung
bis zum produktiven Einsatz – Von Stefan Hauff-Hartig

 

LexisNexis Risk Solution: Global Spend on Financial Crime Compliance Reaches US$214 Billion

III.

dpa: Factchecking: Gegen Fake News und Desinformationen

vfm-Frühjahrstagung 2021
Session: Technische Innovationen

Automatische Transkription von Videos

Fernsehen 3.0: Automatisierte Sentimentanalyse
und Zusammenstellung von Kurzvideos
mit hohem Aufregungslevel

KI-generierte Metadaten:
Von der Technologiebeobachtung
bis zum produktiven Einsatz

 

Von Stefan Hauff-Hartig

Stefan Hauff-Hartig

Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.

__________________________________________________________________________________

Fraunhofer Audio Mining
___________________________________________________________________________

Zunächst stellte Christoph Schmidt vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme das „Fraunhofer Audio Mining System“ vor, das der Erschließung von Mediendaten dient, sie durchsuchbar macht und eine schnellere Navigation ermöglicht. Anhand einer Sequenz aus einer ARD-Tagesschau zeigte er, wie das System die Struktur der Tonspur analysiert, dabei die Sprecherinnen und Sprecher erkennt und im Rahmen der Spracherkennung Keywords generiert. Während hier mit bereits erstellten Dateien gearbeitet wird, ermöglicht die Spracherkennung des „Fraunhofer Live-Erkenners“ die Transkription sogar in Echtzeit, so dass – wie bereits im Sächsischen Landtag realisiert – eine parlamentarische Rede live untertitelt und so barrierefrei wird.

Eine weitere ebenfalls sehr praxisnahe Innovation wird im Audio Mining über die automatische Sprecher-Erkennung realisiert. Dadurch lassen sich spezifische Originaltöne gezielt suchen und Fragen wie „Was hat wer zu einem bestimmten Thema gesagt?“ beantworten. Die Zuverlässigkeit ist schon bei Sequenzen ab zehn Sekunden sehr hoch.

Als aktuelle Herausforderung wird die Multilingualität auf weitere Sprachen gesehen: Während die automatische Erkennung von Deutsch und Englisch schon recht vorangeschritten ist, wird nun in Zusammenarbeit mit der Deutschen Welle an weiteren Sprachen gearbeitet. Daneben rückt vermehrt die Transkription von Audios in den Fokus, bei denen über originalsprachlichen Tönen ein Übersetzungstext gesprochen wird. Und wenn es um die Abweichungen vom Hochdeutsch geht wie bei Dialekten oder beim „Denglisch“ in Jugendsprache oder bei Fachbegriffen, lässt sich ahnen, welche Schwierigkeiten bei der Weiterentwicklung der automatischen Texterkennung zu bewältigen sind.

__________________________________________________________________________________

Highlight-Erkennung und Video-Compilation
__________________________________________________________________________________

Jakob Rosinski von IBM Services stellte ein System zum Generieren von Metadaten vor, das auf Basis der IBM-KI „Watson“ Videos aus dem Sportbereich (Tennis, Fußball) analysiert. Auf dieser Grundlage werden vollautomatisch die besten Szenen und Bilder eines Matches, also die Highlights, zusammengestellt.

Dieses System ist auf Grundlage von maschinellem Lernen unter anderem in der Lage, Anfang und Ende einer Szene zu bestimmen, Ballpositionen und -geschwindigkeiten statistisch auszuwerten und Sequenzen mit hohem Aufregungslevel zu entdecken. Grundlage für diese Sentimentanalyse sind Jubel im Publikum, hochgerissene Arme der Spieler, aber auch der veränderte Sprachmodus von Kommentatoren, wovon in nachvollziehbarer Weise die Schlüsselmomente eines Wettkampfes geprägt sind. Ein weiteres Merkmal sind die Wechsel der Kameraeinstellung nach vorgegebenen Regeln: Während im normalen Spielfluss die klassische Perspektive vorherrscht, werden herausragende Szenen in Nahaufnahmen oder aus der Torperspektive gefilmt. Durch Ranking dieser recht spezifischen Metadaten kann das System selbstständig zwei- bis dreiminütige Highlight-Sequenzen zusammenstellen.

Kurzvideos wie diese können dann über ein Frontend zur Selektion bereitgestellt werden. Die hier mögliche personalisierte Selektion („Interessant oder nicht?“) geht über einen Rückkanal zur Analyse und für das maschinelle Lernen an das System zurück. Hier zeigen sich die Grundlagen für tatsächlich individualisiertes Fernsehen, das „TV 3.0“.

Als aktuelle Entwicklung benannte Jakob Rosinski das Thema „Re-Broadcasting“: Von bereits vorhandenen und weiter zu verwertenden Videos anderer Sender werden deren „Brandings“ am Anfang und Ende von der KI automatisch erkannt und entfernt – und das nahezu in Echtzeit.

Auf eine Frage aus dem Fachpublikum, was sich durch den Einsatz der KI für die Zukunft der Medienarchivare ergibt, antwortete der Referent, dass diese nach seiner Ansicht eben nicht obsolet werden, sondern künftig eine veränderte, „orchestrierende“ Rolle z.B. im Prozess der Automatisierung der Verschlagwortung einnehmen.

__________________________________________________________________________________

VIVA – Visuelle Informationssuche in Video-Archiven
__________________________________________________________________________________

Joanna Bars vom Deutschen Rundfunkarchiv (DRA), Nikolaus Korfhage (Philipps-Universität Marburg) und Kader Pustu-Iren von der TIB Hannover stellten das Forschungs­projekt VIVA zur Konzeptionierung und Entwicklung eines Videomining- und Retrieval-Systems vor. Als Ausgangsmaterial dient der Bestand des DRA an Programmteilen des DDR-Fernsehens, die entwickelte Software ist open source. Ein Teil des Systems ist ein Modul, bei dem Trainings­materialien durch Dokumentarinnen und Dokumentare annotiert und angereichert werden.

Beispielsweise die Gesichtserkennung wird durch Neuronale Netze (Convolutional Neural Network, CNN) und damit durch maschinelles Lernen und KI umgesetzt, was sich insbesondere für semantische Inhalte als geeignet erweist. Die Average Precision wird mit 81% angegeben.

Das maschinelle Training wurde kurz demonstriert. Dabei wurde ein vorhandenes Einzelkonzept, im gegebenen Beispiel eine „Bäckerei“, mit bereits gelabelten Bildern auf weitere Bilder aus einem anderen Korpus angewendet und einem Ähnlichkeitsvergleich unterzogen. Dies führte zur Weiterentwicklung des Einzelkonzeptes und ging wiederum in das Gesamtkonzept ein. Die Ergebnisse dieses Projektes einschließlich der Ähnlichkeitssuche werden in die gemeinsame ARD-Fernsehdatenbank „Fesad“ integriert und erlauben dort auch intuitive Recherchemöglichkeiten. So wird künftig retrodigitalisiertes Videomaterial einfacher und besser zugänglich gemacht.

Und die Konkurrenz kommerzieller Anbieter? Das Team antwortete auf diese Frage, man habe nach Ähnlichem auf dem Markt recherchiert und nichts gefunden.

__________________________________________________________________________________

KI-generierte Metadaten – Von der Technologiebeobachtung bis zum produktiven Einsatz
__________________________________________________________________________________

Dr. Dirk Maroni, Informationsmanager beim Westdeutschen Rundfunk, erläuterte die KI-Aktivitäten im WDR zur Content Analyse. Diese lassen sich in technologische und produktbezogene Aspekte unterteilen. Zur technologischen Basis zählte er Data Analytics als Werkzeug zur Entscheidungshilfe, z.B. für die Formatentwicklung, sowie Content Analytics zum Generieren von Metadaten von Videos, Audios und Texten. Auf der Seite der Produkte wird KI zur Umsetzung von Barrierefreiheit und zur synthetischen Erstellung von Medien eingesetzt (Videos und Audios). Zudem dient KI sowohl als Grundlage des Roboter-Journalismus zur Erzeugung von Texten als auch zum Einsatz von Sprachassistenzsystemen.

Beim Einsatz Künstlicher Intelligenz geht der WDR in fünf Schritten vor. Zunächst wird auf dem Markt bei Start-ups und in der Wissenschaft nach KI-Produkten gesucht. Diese werden im zweiten Schritt auf ihre konkrete Einsatzfähigkeit hin bewertet. Im nächsten Schritt erfolgt die Validierung der „Erlebnisfähigkeit“ eines Produktes, also wie es sich für potenzielle Nutzer wie Redakteure „anfühlt“. Im vierten Schritt wird der Gesamtprozess bewertet, und der fünfte Schritt ist schlussendlich die Inbetriebnahme des KI-Systems.

Maroni stellte danach den Prototypen WDR KIMD für KI-generierte Metadaten vor. An diesem erläuterte er den Schritt der „Erlebnisbewertung“ und demonstrierte die Text-to-Speech-Transformation am Beispiel der Landing-Page der vfm-Tagung. Das System erkennt automatisch Personen, Sprecher, Organisationen und Lokalitäten in Videos. Bei allen diesen Fortschritten dürfte man nicht vergessen, sagte der Referent, dass KI ein statistisches Verfahren und somit zwangsläufig fehlerbehaftet sei.

Ein weiteres Einsatzgebiet ist die „ARD Crossmediale Suche“ auf der ARD-Mining-Plattform zur Contentrecherche über hundert Millionen Objekte in Form von Audios, Videos, Musik und Pressetexten. Am Beispiel der Segelregatta „Vendeé Globe“ wurde das Suchen und Filtern von Keywords und die Suche nach Videos, die bestimmte Originaltöne enthalten, demonstriert.

Als besonderen Schlüssel für den Erfolg von KI-Lösungen stellte Dr. Maroni die begleitende Einbeziehung der Nutzerinnen und Nutzer (insbesondere der Redaktionen) in den Einsatz der Technologien heraus. Damit wäre ein entscheidender Punkt formuliert, der allen Referenten dieser Session wichtig gewesen sein dürfte, ohne dass er konkret ausgesprochen wurde: Die beschriebenen KI-Technologien sind Tools einer Zukunft der Informationswissenschaft, die ihre Praxistauglichkeit bereits heute bewiesen hat.

LexisNexis Risk Solutions

Global Spend on Financial Crime Compliance Reaches US$214 Billion

 

(BIIA) LexisNexis Risk Solutions has released its annual True Cost of Financial Crime Compliance Global Report. The results derived from the comprehensive survey of 1,015 financial crime compliance decision makers at financial institutions including banks as well as investment, asset management and insurance firms globally. The projected total cost of financial crime compliance across all financial institutions reached $213.9 billion in 2021, surpassing the $180.9 billion recorded in 2020.

The majority of this sizeable year-over-year increase is represented by Western Europe and the United States. The decision makers who took part in the study oversee financial crime compliance processes such as sanctions monitoring, know your customer (KYC) remediation, anti-money laundering (AML) and transaction monitoring. Key findings from the LexisNexis Risk SolutionsTrue Cost of Financial Crime Compliance Global Report:

  • Western Countries Continue to Spend Highest on Compliance –Western European countries and the U.S. continue to represent 82.7% of global total projected costs. Germany and the U.S. bear the bulk of cost increases at $9.6 billion and $8.8 billion respectively with Germany outsizing all other countries by a considerable amount. Mid to large financial institutions lead this growth where all regions, excluding South Africa and the Middle East, show double digit percentage increases in compliance costs.
  • Less Consensus on Operational Challenges –In previous years there has been consensus on the top two or three ranked compliance challenges within financial institutions. There is less uniformity in this year’s survey. Customer risk profiling, sanctions screening, regulatory reporting, identifying politically exposed persons (PEPs), KYC for account onboarding and efficient alerts resolution are all similarly ranked as key challenges. Different regions see varying degrees to which certain challenges are more heightened, however.
  • Pandemic Impact –The ongoing pandemic has left a significant imprint on compliance departments, which exacerbated existing issues and led to an increase in the time and spending needed for due diligence. Mid and large firms in the U.S. and Canada and parts of LATAM experienced sizeable pandemic-related cost increases. Key operational challenges became heightened in these markets since the start of the pandemic, including increased alert volumes and suspicious transactions, inefficiencies with alert resolution and due diligence, more manual work and limitations with proper risk profiling/sanctions screening/PEP identification.
  • Technology Investment Leads to Better Outcomes –Financial institutions implementing technology solutions to support financial crime compliance efforts have been more prepared and less impacted overall by increasing regulatory pressures and COVID-19. Compared to firms that distributed more of their annual compliance costs to labor, those that allocated costs more toward technology are seeing smaller year-on-year financial crime compliance operations cost increases, lower costs per full-time employee and fewer pandemic-related challenges.

Business Information Industry Association (Hongkong) is the international partner of Open Password

dpa

Factchecking: Gegen Fake News und Desinformationen

 

(dpa) Die Deutsche Presse-Agentur teilt ihr Wissen und hat ein neues Whitepaper veröffentlicht. Unter dem Titel „Factchecking – Der Journalismus im Kampf gegen Lügen und Fälschungen“ geht es um das Thema Verifikation als eine der zentralen redaktionellen Aufgaben. Im Fokus dabei: Know-how zur Entlarvung von Falschinformationen sowie Tools für die digitale Recherche. Das elfseitige Whitepaper kann ab auf der dpa-Website heruntergeladen werden.

Eine dpa-eigene Umfrage, an der sich mehr als 80 Chefredaktionen beteiligt haben, zeigt, dass mittlerweile zwei Drittel von ihnen Falschbehauptungen und Manipulationen als eine ernsthafte Bedrohung ansehen. Die dpa hat sich im Verlauf der vergangenen Jahre eine tiefgreifende Faktencheck-Expertise erarbeitet und gibt diese auch in Schulungen und anderen Formaten weiter.

So vertiefen beispielsweise aktuell im Rahmen des Projekts Faktencheck21 Redakteurinnen und Redakteure aus mehr als einhundert Medienhäusern mit Hilfe der dpa ihr Wissen, wie Falschbehauptungen, Desinformation und Propaganda erkannt und widerlegt werden können. Außerdem hat die dpa rund drei Monate vor der Bundestagswahl eine kostenlose Trainingsplattform entwickelt, die Techniken zu digitaler Recherche, Verifikation und Factchecking erklärt und viele Tipps und nützliche Links bereithält (dpa-factify.com). Faktencheck21 wird finanziell von der Google News Initiative gefördert.

Inhalte des Whitepapers: „Fakten zu checken ist zentrale Aufgabe des Journalismus“ – Alexandra Borchardt, Journalistin, Beraterin und Professorin für Medienwandel (Universität der Künste Berlin, Hamburg Media School) – „Factchecking heute und morgen“ – Baybars Örsek, Direktor International Fact-Checking-Network IFCN – Know-how-Teil: Basiswissen Verifikation – Trainingsplattform, Schulungen, Faktencheck-Community – – Neue Faktencheck-Formate.

Open Password

Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum

Neue Ausgaben von Open Password erscheinen viermal in der Woche.

Wer den E-Mai-Service kostenfrei abonnieren möchte – bitte unter www.password-online.de eintragen.

Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.

International Co-operation Partner:

Outsell (London)
Business Industry Information Association/BIIA (Hongkong)

Archiv & Touchpoint

Das Open Password Archiv Plus bündelt mehr als 1.100 Beiträge aus den Open Password Pushdiensten seit 2016.

 

Anzeige

Anzeige



Open Password FAQ

FAQ + Hilfe

Das Open Password Archiv ist eine digitale Sammlung von über 1.100 Artikeln und Ausgaben des ehemaligen Newsletters „Open Password“ aus der Publikation “Password Online”. Diese Publikation, die von 1986 bis 2015 als Print-Ausgabe erschien, diente als zentrale Informationsquelle für Fachleute in der Informationsbranche.

Im Archiv des 2016 gestarteten Pushdienstes finden Sie tiefgreifende Analysen, exklusive Geschichten und redaktionelle Beiträge, die wichtige Entwicklungen und Trends in verschiedenen Sektoren wie Finanzen, IT und Pharma beleuchten. Das Archiv ist online zugänglich und bietet eine wertvolle Ressource für Forscher, Information Professionals und alle, die an der Geschichte und den Entwicklungen der Informationsbranche interessiert sind.

Eine noch ausführlichere Zusammenfassung zu Open Password wurde vom ehemaligen Herausgeber Dr. Wilhelm Heinrich Bredemeier verfasst.

Sie können über die Kopfzeile die einzelnen Jahre per Klick ansteuern. Hierzu einfach auf die passende Jahreszahl klicken (siehe Pfeile)

Open Password Navigation Hilfe

Nach dem Klick auf die jeweilige Jahreszahl gelangen sie auf die Titelliste des jeweiligen Jahres. Hier dann auf den gewünschten Titel klicken. (Siehe Pfeile)

Open Password Archiv Titelübersicht

Wir sind bemüht die Beiträge schnellstmöglich in das Archiv zu übernehmen. Falls ein Beitrag per Klick nicht erreichbar ist zählen wir diese Klicks aus. Sie können aber auf der jeweiligen Seite die beschleunigte Einbindung auswählen.

Die Beiträge von Open Password von 2016 bis 2022 sind seit dem 18.11 2023 über ChatGPT recherchierbar.

Was bedeutet dies konkret? Wir haben alle Beiträge als Wissensbasis über Chat GPT auswertbar gemacht. Wenn Sie ein ChatGPT Plus Nutzer sind und Zugriff auf ChatGPT 4.0 haben, so steht Ihnen das Open Password Archiv dort zur Verfügung.

Mit der Auswertung per KI Abfrage stehen ihnen unendliche Möglichkeiten zur Verfügung. Sie können Themen suchen, Fachbegriffe zusammenfassen und erläutern lassen. Hier geht es zum GPT des Open Password Archiv.

Wir haben alle Pushdienste (Beiträge) der letzten Jahre als PDF vorliegen. Hier sind entsprechende Abbildungen und Bilder enthalten. Die PDFs zu den Pushdiensten werden ebenfalls Schritt für als Link mit in die Beiträge angelegt.

Wir sind bemüht Beiträge nach denen einen hohe Nachfrage besteht in der Anlage vorzuziehen. Hierfür werten wir die Zugriffe auf die Titellisten und die Klicks auf Beiträge regelmässig aus.

Beitrage die als Material benötigt werden, aber noch nicht im Archiv eingebunden sind können wie folgt angefordert werden.

1. Klicken sie auf den Beitrag aus der Titelliste
2. Füllen sie das Formular aus und fragen sie eine bevorzugte Einbindung an

Wir ziehen die Einbindung vor und senden eine Benachrichtigung sobald der Beitrag eingebunden wurde.