ZBW MediaTalk

von Andreas Oskar Kempf

Am 8. und 9. November fanden in Frankfurt am Main die DGI-Praxistage 2018 statt.
Unter dem Motto „Der Algorithmus, wo man mitmuss“ wurde diskutiert, wie die KI und Mining-Technologien die Arbeit von Information Professionals verändern.

Künstliche Intelligenz erfordert neue Kompetenzen

Den Auftakt der diesjährigen Praxistage bildeten öffentliche Sitzungen von zwei DGI-Fachgruppen. Der Arbeitskreis Bildung und Informationskompetenz diskutierte über das Thema Künstliche Intelligenz (KI) in der Bildung. Zuvor beleuchteten mehrere Impulsvorträge das Thema aus unterschiedlichen Perspektiven. Stefan Holtel, Artificial Intelligence Explainer bei PwC, hob hervor, dass jede größere neue Technologie das Erlernen neuer Kompetenzen erfordere. KI-Systeme, die im Wesentlichen Entscheidungen automatisierten, erforderten, so Holtel, kognitive Literalität. Sie zeichne sich neben der Fähigkeit, auch bei großen maschinell vorverarbeiteten Datenmengen Entscheidungen zu treffen, etwa dadurch aus, mit Mehrdeutigkeiten umzugehen oder Muster statt nur Details zu erkennen. Auch die derzeitigen Grenzen von KI-Systemen gelte es, sich bewusst zu machen. So fließe beispielsweise in KI-gestützten Sprachsystemen nicht der kulturelle Kontext von Sprache ein.

Mehrere Impulsvorträge thematisierten vor diesem Hintergrund die wachsende Bedeutung von Informationskompetenz (IK). Matthias Ballod, Hochschullehrer für Fachdidaktik Deutsch an der Universität Halle-Wittenberg, hob die Vermittlung von Quellkritik in der Lehrerausbildung hervor. Paul Libbrecht vom Leibniz-Institut für Bildungsforschung und Bildungsinformation (DIPF) stellte ein mehrsprachiges MOOC zur Vermittlung von Informationsgrundkompetenz vor, das ein selbst-reguliertes Lernen ermögliche. IK und KI – ein Herz und eine Seele? Zu dieser Frage lieferten sich Christine Burblies von der Technischen Informationsbibliothek (TIB) und Dr. Tamara Pianos von der ZBW – Leibniz-Informationszentrum Wirtschaft ein kontroverses Zwiegespräch.

KI-gestützte Systeme könnten etwa die Informationssuche unterstützen, indem sich individuelle Bedürfnisse von Nutzerinnen und Nutzern einbeziehen und sich die Suche nach Informationen ortsunabhängig gestalten ließe. Dr. Tamara Heck (DIPF) skizzierte in ihrem Vortrag, wie sich KI dazu nutzen ließe, die Auffindbarkeit offener Bildungsressourcen zu verbessern. Daneben warf sie die Frage auf, ob KI-Systeme Lernenden die Entscheidung, Lernen selbst zu gestalten, eher nehmen und ein Verlernen des Lernens gar begünstigen.

In der Abschlussdiskussion war man sich einig, es brauche eine bildungspolitische Idee dazu, welche Kompetenzen im Umgang mit KI-Systemen vermittelt werden sollten, um zu vermeiden, dass der Einzug von KI im Bildungskontext als Sachzwang diskutiert werde.

Auch die DGI-Fachgruppe Terminologie und Sprachfragen thematisierte die zunehmende Einbindung ihres Gegenstandsbereichs in IT-gestützte Prozesse. Marlies Ockenfeld (DGI-Präsidentin) und Barbara Müller-Heiden sowie Axel Ermert, beide im DGI-Vorstand, lieferten einen historischen Abriss über die Arbeit des Arbeitskreises und benachbarter Gremien. Herzstück der Arbeit bildet die permanente Aktualisierung der Terminologie der Information und Dokumentation (TID) (1975, 2006). Deren dritte Ausgabe, ergänzt um Kapitel zu neueren Teilbereichen wie der Mediendokumentation, wird derzeit vorbereitet. Ein Thema der Diskussion bildete die Frage nach dem Verhältnis zur Gemeinsamen Normdatei (GND). Statt einer vollständigen Integration sprach man sich eher für die Verknüpfung mit der GND aus.

KI-basierte Technologien in Bibliotheken und Unternehmen

Am zweiten Tag führte Harald Sack von FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur und Karlsruher Institut für Technologie (KIT) in aktuelle Möglichkeiten und Grenzen der KI ein. Anhand zahlreicher Beispiele führte er anschaulich vor Augen, wie KI immer mehr Lebensbereiche durchdringt. In enger Orientierung an Vorgängen natürlicher Intelligenz führte er den Weg von der Biologie zum mathematischen Modell einer Nervenzelle und dessen Anwendung in Supercomputern aus.

Im Kern gehe es um das Lernen an Beispielen, so dass neuronale Netze Klassifikationen durchführen könnten. Der Sprung vom Klassifikator zum Generator mittels vergleichenden Lernens sei jedoch bereits vollzogen. So sei etwa zum ersten Mal ein Bild versteigert worden, das von KI gemalt wurde. Anders als in Form von Wissensgraphen, wie sie manuell durch Linked-Data-Anwendungen entstünden, werde Wissen hierbei allerdings nicht explizit gemacht, sondern sei lediglich implizit enthalten. Schaue man sich an, was neuronale Netze tatsächlich sähen, werde deutlich, dass viel kontextuelles Wissen fehle. Längerfristig, so Sack, gehe es darum, explizit zu machen, was in neuronalen Netzen drin stecke, und ethische Fragen bei der Anwendung von KI-Systemen zu klären. Denn, so die Prognose in Anlehnung an das sogenannte Tschechowsche Gesetz: Alles was es gibt, werde auch früher oder später eingesetzt.

Die nachfolgenden Präsentationen behandelten die Einbindung von KI-Systemen in unterschiedlichen Kontexten. Frank Busse, Deutsche Nationalbibliothek, und Andreas Oskar Kempf, ZBW – Leibniz-Informationszentrum Wirtschaft, stellten KI-Anwendungen in Bibliotheken vor. An der DNB werden diese unter anderem für die Vergabe der DDC-Kurznotationen verwendet. Je nach Disziplin werden in stichprobenartigen Qualitätsbewertungen der Fachreferentinnen und -referenten unterschiedliche Ergebnisse erzielt. An der ZBW wurden im Projekt Automatische Indexierung erstmals Termvorschläge aus Autoren-Keywords, Dokumenttiteln, Abstracts sowie Logfiles zu Suchanfragen prozessunterstützt selektiert, um sie von der Redaktion des Standard-Thesaurus Wirtschaft (STW) bewerten zu lassen.

Andreas Mertens von der avameo GmbH und Manfred Hauer von AGI – Information Management Consultants stellten Textextraktionsverfahren auf Basis von Natural Language Processing vor. Mertens erläuterte die Arbeitsweise einer eigenen Software zur automatisierten Textzusammenfassung, mit der Information Professionals unter Einbindung von Taxonomien und Ontologien bei der Bewertung von Informationen zeitlich entlastet würden. Die Zusammenfassungen ließen sich an die konkrete Zielgruppe anpassen.

Hauer präsentierte anhand von Beispielen einen Abriss über Eigenentwicklungen zur mehrsprachigen maschinellen inhaltlichen Auswertung auf Basis von Inhaltsverzeichnissen aus Büchern und Abstracts von Aufsätzen.

Hendrik Christian Doll vom Forschungsdaten- und Servicezentrum der Deutschen Bundesbank stellte zum einen ein Record-Linkage-Verfahren unter Anwendung von Supervised Machine Learning vor, mit dem Unternehmensdaten aus unterschiedlichen Quellen durch eine gemeinsame ID eindeutig Unternehmen zugeordnet würden.

Zum anderen kündigte er ein Vorhaben an, mit dem aus Forschungspublikationen verwendete Datensätze, Themen und Methoden extrahiert und in eine Metadatenbank überführt werden sollen. Hierbei wolle man auch Nutzer-generierte Daten einbinden.

KI-Anwendungen in der Forschung

Abschließend folgten zwei Präsentationen aus dem Forschungskontext. Maximilian Eibl von der TU Chemnitz stellte ein Kooperationsprojekt mit den Lokalfernsehsendern Sachsens zur digitalen Erschließung von VHS-Videomaterial vor, bei dem es darum geht, möglichst viele Prozessschritte zu automatisieren. Während sich für die Bildanalyse, etwa in Form einer automatisierten Annotation von Störerscheinungen, sehr gute Ergebnisse erzielen lasse, berge die automatische Audioanalyse durch die dialektale Färbung der gesprochenen Sprache besondere Schwierigkeiten für die Spracherkennung.

Hidir Aras vom FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur präsentierte das TDMLab-Projekt, aus dem eine Big-Data-Plattform zur praxisnahen Erprobung und Erlernen neuer Methoden des Text- und Data-Mining (TDM) mit großen Datenmengen hervorging, das im Rahmen der wissenschaftlichen Weiterbildung, etwa von Information Professionals, genutzt werden könne.

Die Veranstaltung schloss mit einem Ausblick auf das DGI-Forum im nächsten Jahr zum Thema Bildung in Zeiten der Digitalisierung.

Autor: Dr. Andreas Oskar Kempf | Taxonomie- und Thesaurusmanagement und Mitarbeiter im Projekt Automatische Indexierung | ZBW – Leibniz-Informationszentrum Wirtschaft

The ZBW – Leibniz Information Centre for Economics is the world’s largest research infrastructure for economic literature, online as well as offline.

View Comments

There are currently no comments.

Next Post