Open Password – Mittwoch, den 14. Juli 2021
# 947
vfm-Frühjahrstagung – Technische Innovationen – Automatische Transkription von Videos – Fernsehen 3.0 – Automatisierte Sentimentanalyse – KI-generierte Metadaten – Stefan Hauff-Hartig – Erschließung von Audio- und Video-Dateien – Fraunhofer Audio Mining – Christoph Schmidt – Fraunhofer-Institut für Intelligente Analyse und Informationssysteme – ARD-Tagesschau – Live-Erkenner – Multilingualität – Deutsche Welle – Jakob Rosinski – Watson – IBM – Automatisierte Sport-Highlights – Automatisierung von Kameraeinstellungen – Re-Broadcasting – Medienarchivare – Joanna Bars – Deutsches Rundfunkarchiv – Nikolaus Korfhage – Philipps-Universität Marburg – Kader Pustu-Iren – TIB Hannover – VIVA – Gesichtserkennung – Convolutional Network – Fesad – Dirk Maroni – Westdeutscher Rundfunk – Data Analytics – Content Analytics – Roboter-Journalismus – WDR KIMD – Erlebnisbewertung – ARD Crossmediale Suche – Zukunft der Informationswissenschaft – Praxistauglichkeit – LexisNexis Risk Solutions – True Cost of Financial Crime Compliance Global Report – U.S. – Germany – Customer Risk Profiling – Sanctions Screening – Regulatory Reporting – Identifying Politically Exposed Persons – KYC for Account Onboarding and Alerts Resolution – Pandemic Impact – Technology Investments – BIIA – dpa – Factchecking – Fake News – Desinformationen – Google News Initiative – Journalismus – Alexandra Borchardt – Baybars Örsek
I.
Titelgeschichte
Session: Technische Innovationen: Automatische Transkription von Videos – Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel – KI-generierte Metadaten: Von der Technologiebeobachtung
bis zum produktiven Einsatz – Von Stefan Hauff-Hartig
LexisNexis Risk Solution: Global Spend on Financial Crime Compliance Reaches US$214 Billion
III.
dpa: Factchecking: Gegen Fake News und Desinformationen
vfm-Frühjahrstagung 2021
Session: Technische Innovationen
Automatische Transkription von Videos
Fernsehen 3.0: Automatisierte Sentimentanalyse
und Zusammenstellung von Kurzvideos
mit hohem Aufregungslevel
KI-generierte Metadaten:
Von der Technologiebeobachtung
bis zum produktiven Einsatz
Von Stefan Hauff-Hartig
Stefan Hauff-Hartig
Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.
__________________________________________________________________________________
Fraunhofer Audio Mining
___________________________________________________________________________
Zunächst stellte Christoph Schmidt vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme das „Fraunhofer Audio Mining System“ vor, das der Erschließung von Mediendaten dient, sie durchsuchbar macht und eine schnellere Navigation ermöglicht. Anhand einer Sequenz aus einer ARD-Tagesschau zeigte er, wie das System die Struktur der Tonspur analysiert, dabei die Sprecherinnen und Sprecher erkennt und im Rahmen der Spracherkennung Keywords generiert. Während hier mit bereits erstellten Dateien gearbeitet wird, ermöglicht die Spracherkennung des „Fraunhofer Live-Erkenners“ die Transkription sogar in Echtzeit, so dass – wie bereits im Sächsischen Landtag realisiert – eine parlamentarische Rede live untertitelt und so barrierefrei wird.
Eine weitere ebenfalls sehr praxisnahe Innovation wird im Audio Mining über die automatische Sprecher-Erkennung realisiert. Dadurch lassen sich spezifische Originaltöne gezielt suchen und Fragen wie „Was hat wer zu einem bestimmten Thema gesagt?“ beantworten. Die Zuverlässigkeit ist schon bei Sequenzen ab zehn Sekunden sehr hoch.
Als aktuelle Herausforderung wird die Multilingualität auf weitere Sprachen gesehen: Während die automatische Erkennung von Deutsch und Englisch schon recht vorangeschritten ist, wird nun in Zusammenarbeit mit der Deutschen Welle an weiteren Sprachen gearbeitet. Daneben rückt vermehrt die Transkription von Audios in den Fokus, bei denen über originalsprachlichen Tönen ein Übersetzungstext gesprochen wird. Und wenn es um die Abweichungen vom Hochdeutsch geht wie bei Dialekten oder beim „Denglisch“ in Jugendsprache oder bei Fachbegriffen, lässt sich ahnen, welche Schwierigkeiten bei der Weiterentwicklung der automatischen Texterkennung zu bewältigen sind.
__________________________________________________________________________________
Highlight-Erkennung und Video-Compilation
__________________________________________________________________________________
Jakob Rosinski von IBM Services stellte ein System zum Generieren von Metadaten vor, das auf Basis der IBM-KI „Watson“ Videos aus dem Sportbereich (Tennis, Fußball) analysiert. Auf dieser Grundlage werden vollautomatisch die besten Szenen und Bilder eines Matches, also die Highlights, zusammengestellt.
Dieses System ist auf Grundlage von maschinellem Lernen unter anderem in der Lage, Anfang und Ende einer Szene zu bestimmen, Ballpositionen und -geschwindigkeiten statistisch auszuwerten und Sequenzen mit hohem Aufregungslevel zu entdecken. Grundlage für diese Sentimentanalyse sind Jubel im Publikum, hochgerissene Arme der Spieler, aber auch der veränderte Sprachmodus von Kommentatoren, wovon in nachvollziehbarer Weise die Schlüsselmomente eines Wettkampfes geprägt sind. Ein weiteres Merkmal sind die Wechsel der Kameraeinstellung nach vorgegebenen Regeln: Während im normalen Spielfluss die klassische Perspektive vorherrscht, werden herausragende Szenen in Nahaufnahmen oder aus der Torperspektive gefilmt. Durch Ranking dieser recht spezifischen Metadaten kann das System selbstständig zwei- bis dreiminütige Highlight-Sequenzen zusammenstellen.
Kurzvideos wie diese können dann über ein Frontend zur Selektion bereitgestellt werden. Die hier mögliche personalisierte Selektion („Interessant oder nicht?“) geht über einen Rückkanal zur Analyse und für das maschinelle Lernen an das System zurück. Hier zeigen sich die Grundlagen für tatsächlich individualisiertes Fernsehen, das „TV 3.0“.
Als aktuelle Entwicklung benannte Jakob Rosinski das Thema „Re-Broadcasting“: Von bereits vorhandenen und weiter zu verwertenden Videos anderer Sender werden deren „Brandings“ am Anfang und Ende von der KI automatisch erkannt und entfernt – und das nahezu in Echtzeit.
Auf eine Frage aus dem Fachpublikum, was sich durch den Einsatz der KI für die Zukunft der Medienarchivare ergibt, antwortete der Referent, dass diese nach seiner Ansicht eben nicht obsolet werden, sondern künftig eine veränderte, „orchestrierende“ Rolle z.B. im Prozess der Automatisierung der Verschlagwortung einnehmen.
__________________________________________________________________________________
VIVA – Visuelle Informationssuche in Video-Archiven
__________________________________________________________________________________
Joanna Bars vom Deutschen Rundfunkarchiv (DRA), Nikolaus Korfhage (Philipps-Universität Marburg) und Kader Pustu-Iren von der TIB Hannover stellten das Forschungsprojekt VIVA zur Konzeptionierung und Entwicklung eines Videomining- und Retrieval-Systems vor. Als Ausgangsmaterial dient der Bestand des DRA an Programmteilen des DDR-Fernsehens, die entwickelte Software ist open source. Ein Teil des Systems ist ein Modul, bei dem Trainingsmaterialien durch Dokumentarinnen und Dokumentare annotiert und angereichert werden.
Beispielsweise die Gesichtserkennung wird durch Neuronale Netze (Convolutional Neural Network, CNN) und damit durch maschinelles Lernen und KI umgesetzt, was sich insbesondere für semantische Inhalte als geeignet erweist. Die Average Precision wird mit 81% angegeben.
Das maschinelle Training wurde kurz demonstriert. Dabei wurde ein vorhandenes Einzelkonzept, im gegebenen Beispiel eine „Bäckerei“, mit bereits gelabelten Bildern auf weitere Bilder aus einem anderen Korpus angewendet und einem Ähnlichkeitsvergleich unterzogen. Dies führte zur Weiterentwicklung des Einzelkonzeptes und ging wiederum in das Gesamtkonzept ein. Die Ergebnisse dieses Projektes einschließlich der Ähnlichkeitssuche werden in die gemeinsame ARD-Fernsehdatenbank „Fesad“ integriert und erlauben dort auch intuitive Recherchemöglichkeiten. So wird künftig retrodigitalisiertes Videomaterial einfacher und besser zugänglich gemacht.
Und die Konkurrenz kommerzieller Anbieter? Das Team antwortete auf diese Frage, man habe nach Ähnlichem auf dem Markt recherchiert und nichts gefunden.
__________________________________________________________________________________
KI-generierte Metadaten – Von der Technologiebeobachtung bis zum produktiven Einsatz
__________________________________________________________________________________
Dr. Dirk Maroni, Informationsmanager beim Westdeutschen Rundfunk, erläuterte die KI-Aktivitäten im WDR zur Content Analyse. Diese lassen sich in technologische und produktbezogene Aspekte unterteilen. Zur technologischen Basis zählte er Data Analytics als Werkzeug zur Entscheidungshilfe, z.B. für die Formatentwicklung, sowie Content Analytics zum Generieren von Metadaten von Videos, Audios und Texten. Auf der Seite der Produkte wird KI zur Umsetzung von Barrierefreiheit und zur synthetischen Erstellung von Medien eingesetzt (Videos und Audios). Zudem dient KI sowohl als Grundlage des Roboter-Journalismus zur Erzeugung von Texten als auch zum Einsatz von Sprachassistenzsystemen.
Beim Einsatz Künstlicher Intelligenz geht der WDR in fünf Schritten vor. Zunächst wird auf dem Markt bei Start-ups und in der Wissenschaft nach KI-Produkten gesucht. Diese werden im zweiten Schritt auf ihre konkrete Einsatzfähigkeit hin bewertet. Im nächsten Schritt erfolgt die Validierung der „Erlebnisfähigkeit“ eines Produktes, also wie es sich für potenzielle Nutzer wie Redakteure „anfühlt“. Im vierten Schritt wird der Gesamtprozess bewertet, und der fünfte Schritt ist schlussendlich die Inbetriebnahme des KI-Systems.
Maroni stellte danach den Prototypen WDR KIMD für KI-generierte Metadaten vor. An diesem erläuterte er den Schritt der „Erlebnisbewertung“ und demonstrierte die Text-to-Speech-Transformation am Beispiel der Landing-Page der vfm-Tagung. Das System erkennt automatisch Personen, Sprecher, Organisationen und Lokalitäten in Videos. Bei allen diesen Fortschritten dürfte man nicht vergessen, sagte der Referent, dass KI ein statistisches Verfahren und somit zwangsläufig fehlerbehaftet sei.
Ein weiteres Einsatzgebiet ist die „ARD Crossmediale Suche“ auf der ARD-Mining-Plattform zur Contentrecherche über hundert Millionen Objekte in Form von Audios, Videos, Musik und Pressetexten. Am Beispiel der Segelregatta „Vendeé Globe“ wurde das Suchen und Filtern von Keywords und die Suche nach Videos, die bestimmte Originaltöne enthalten, demonstriert.
Als besonderen Schlüssel für den Erfolg von KI-Lösungen stellte Dr. Maroni die begleitende Einbeziehung der Nutzerinnen und Nutzer (insbesondere der Redaktionen) in den Einsatz der Technologien heraus. Damit wäre ein entscheidender Punkt formuliert, der allen Referenten dieser Session wichtig gewesen sein dürfte, ohne dass er konkret ausgesprochen wurde: Die beschriebenen KI-Technologien sind Tools einer Zukunft der Informationswissenschaft, die ihre Praxistauglichkeit bereits heute bewiesen hat.
LexisNexis Risk Solutions
Global Spend on Financial Crime Compliance Reaches US$214 Billion
(BIIA) LexisNexis Risk Solutions has released its annual True Cost of Financial Crime Compliance Global Report. The results derived from the comprehensive survey of 1,015 financial crime compliance decision makers at financial institutions including banks as well as investment, asset management and insurance firms globally. The projected total cost of financial crime compliance across all financial institutions reached $213.9 billion in 2021, surpassing the $180.9 billion recorded in 2020.
The majority of this sizeable year-over-year increase is represented by Western Europe and the United States. The decision makers who took part in the study oversee financial crime compliance processes such as sanctions monitoring, know your customer (KYC) remediation, anti-money laundering (AML) and transaction monitoring. Key findings from the LexisNexis Risk SolutionsTrue Cost of Financial Crime Compliance Global Report:
- Western Countries Continue to Spend Highest on Compliance –Western European countries and the U.S. continue to represent 82.7% of global total projected costs. Germany and the U.S. bear the bulk of cost increases at $9.6 billion and $8.8 billion respectively with Germany outsizing all other countries by a considerable amount. Mid to large financial institutions lead this growth where all regions, excluding South Africa and the Middle East, show double digit percentage increases in compliance costs.
- Less Consensus on Operational Challenges –In previous years there has been consensus on the top two or three ranked compliance challenges within financial institutions. There is less uniformity in this year’s survey. Customer risk profiling, sanctions screening, regulatory reporting, identifying politically exposed persons (PEPs), KYC for account onboarding and efficient alerts resolution are all similarly ranked as key challenges. Different regions see varying degrees to which certain challenges are more heightened, however.
- Pandemic Impact –The ongoing pandemic has left a significant imprint on compliance departments, which exacerbated existing issues and led to an increase in the time and spending needed for due diligence. Mid and large firms in the U.S. and Canada and parts of LATAM experienced sizeable pandemic-related cost increases. Key operational challenges became heightened in these markets since the start of the pandemic, including increased alert volumes and suspicious transactions, inefficiencies with alert resolution and due diligence, more manual work and limitations with proper risk profiling/sanctions screening/PEP identification.
- Technology Investment Leads to Better Outcomes –Financial institutions implementing technology solutions to support financial crime compliance efforts have been more prepared and less impacted overall by increasing regulatory pressures and COVID-19. Compared to firms that distributed more of their annual compliance costs to labor, those that allocated costs more toward technology are seeing smaller year-on-year financial crime compliance operations cost increases, lower costs per full-time employee and fewer pandemic-related challenges.
Business Information Industry Association (Hongkong) is the international partner of Open Password
dpa
Factchecking: Gegen Fake News und Desinformationen
(dpa) Die Deutsche Presse-Agentur teilt ihr Wissen und hat ein neues Whitepaper veröffentlicht. Unter dem Titel „Factchecking – Der Journalismus im Kampf gegen Lügen und Fälschungen“ geht es um das Thema Verifikation als eine der zentralen redaktionellen Aufgaben. Im Fokus dabei: Know-how zur Entlarvung von Falschinformationen sowie Tools für die digitale Recherche. Das elfseitige Whitepaper kann ab auf der dpa-Website heruntergeladen werden.
Eine dpa-eigene Umfrage, an der sich mehr als 80 Chefredaktionen beteiligt haben, zeigt, dass mittlerweile zwei Drittel von ihnen Falschbehauptungen und Manipulationen als eine ernsthafte Bedrohung ansehen. Die dpa hat sich im Verlauf der vergangenen Jahre eine tiefgreifende Faktencheck-Expertise erarbeitet und gibt diese auch in Schulungen und anderen Formaten weiter.
So vertiefen beispielsweise aktuell im Rahmen des Projekts Faktencheck21 Redakteurinnen und Redakteure aus mehr als einhundert Medienhäusern mit Hilfe der dpa ihr Wissen, wie Falschbehauptungen, Desinformation und Propaganda erkannt und widerlegt werden können. Außerdem hat die dpa rund drei Monate vor der Bundestagswahl eine kostenlose Trainingsplattform entwickelt, die Techniken zu digitaler Recherche, Verifikation und Factchecking erklärt und viele Tipps und nützliche Links bereithält (dpa-factify.com). Faktencheck21 wird finanziell von der Google News Initiative gefördert.
Inhalte des Whitepapers: „Fakten zu checken ist zentrale Aufgabe des Journalismus“ – Alexandra Borchardt, Journalistin, Beraterin und Professorin für Medienwandel (Universität der Künste Berlin, Hamburg Media School) – „Factchecking heute und morgen“ – Baybars Örsek, Direktor International Fact-Checking-Network IFCN – Know-how-Teil: Basiswissen Verifikation – Trainingsplattform, Schulungen, Faktencheck-Community – – Neue Faktencheck-Formate.
Open Password
Forum und Nachrichten
für die Informationsbranche
im deutschsprachigen Raum
Neue Ausgaben von Open Password erscheinen viermal in der Woche.
Wer den E-Mai-Service kostenfrei abonnieren möchte – bitte unter www.password-online.de eintragen.
Die aktuelle Ausgabe von Open Password ist unmittelbar nach ihrem Erscheinen im Web abzurufen. www.password-online.de/archiv. Das gilt auch für alle früher erschienenen Ausgaben.
International Co-operation Partner:
Outsell (London)
Business Industry Information Association/BIIA (Hongkong)
Anzeige
FAQ + Hilfe