{"id":42864,"date":"2022-03-30T12:16:22","date_gmt":"2022-03-30T12:16:22","guid":{"rendered":"https:\/\/www.zbw-mediatalk.eu\/?p=42864"},"modified":"2022-04-07T12:30:30","modified_gmt":"2022-04-07T12:30:30","slug":"diskriminierung-durch-ki-inwiefern-bibliotheken-betroffen-sind-und-wie-mitarbeitende-das-richtige-mindset-finden","status":"publish","type":"post","link":"https:\/\/www.zbw-mediatalk.eu\/de\/2022\/03\/diskriminierung-durch-ki-inwiefern-bibliotheken-betroffen-sind-und-wie-mitarbeitende-das-richtige-mindset-finden\/","title":{"rendered":"Diskriminierung durch KI: Inwiefern Bibliotheken betroffen sind und wie Mitarbeitende das richtige Mindset finden"},"content":{"rendered":"<div class='__iawmlf-post-loop-links' style='display:none;' data-iawmlf-post-links='[{&quot;id&quot;:4942,&quot;href&quot;:&quot;https:\\\/\\\/www.weizenbaum-institut.de\\\/forschung\\\/fg20&quot;,&quot;archived_href&quot;:&quot;&quot;,&quot;redirect_href&quot;:&quot;https:\\\/\\\/www.weizenbaum-institut.de\\\/forschung-aufbauphase\\\/fg20\\\/&quot;,&quot;checks&quot;:[],&quot;broken&quot;:false,&quot;last_checked&quot;:null,&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1551,&quot;href&quot;:&quot;https:\\\/\\\/www.youtube.com\\\/watch?v=TWWsW1w-BVo&amp;t=10s&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20260307190613\\\/https:\\\/\\\/www.youtube.com\\\/watch?v=TWWsW1w-BVo&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-27 13:08:14&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-04-02 18:41:27&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-04-06 01:11:39&quot;,&quot;http_code&quot;:206}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 01:11:39&quot;,&quot;http_code&quot;:206},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1552,&quot;href&quot;:&quot;https:\\\/\\\/www.media.mit.edu\\\/projects\\\/gender-shades\\\/overview&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20260305091326\\\/https:\\\/\\\/www.media.mit.edu\\\/projects\\\/gender-shades\\\/overview\\\/&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:26:28&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-03-27 13:08:16&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-04-02 18:41:27&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-04-06 01:11:39&quot;,&quot;http_code&quot;:206}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 01:11:39&quot;,&quot;http_code&quot;:206},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1553,&quot;href&quot;:&quot;https:\\\/\\\/aif360.mybluemix.net&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20230525081324\\\/https:\\\/\\\/aif360.mybluemix.net\\\/&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:26:30&quot;,&quot;http_code&quot;:404},{&quot;date&quot;:&quot;2026-04-06 01:12:08&quot;,&quot;http_code&quot;:404}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 01:12:08&quot;,&quot;http_code&quot;:404},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1554,&quot;href&quot;:&quot;https:\\\/\\\/www.microsoft.com\\\/en-us\\\/research\\\/project\\\/datasheets-for-datasets&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20260214043105\\\/https:\\\/\\\/www.microsoft.com\\\/en-us\\\/research\\\/project\\\/datasheets-for-datasets\\\/&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:26:33&quot;,&quot;http_code&quot;:200},{&quot;date&quot;:&quot;2026-04-06 01:12:14&quot;,&quot;http_code&quot;:200}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 01:12:14&quot;,&quot;http_code&quot;:200},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:4943,&quot;href&quot;:&quot;https:\\\/\\\/www.weizenbaum-institut.de&quot;,&quot;archived_href&quot;:&quot;&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[],&quot;broken&quot;:false,&quot;last_checked&quot;:null,&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1556,&quot;href&quot;:&quot;https:\\\/\\\/www.ted.com\\\/talks\\\/gunay_kazimzade_racial_and_gender_biases_in_ai&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20260304121021\\\/https:\\\/\\\/www.ted.com\\\/talks\\\/gunay_kazimzade_racial_and_gender_biases_in_ai&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:27:26&quot;,&quot;http_code&quot;:206},{&quot;date&quot;:&quot;2026-04-06 02:20:20&quot;,&quot;http_code&quot;:206}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 02:20:20&quot;,&quot;http_code&quot;:206},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1557,&quot;href&quot;:&quot;https:\\\/\\\/scholar.google.de\\\/citations?user=DQQXOGEAAAAJ&amp;hl=en&quot;,&quot;archived_href&quot;:&quot;&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[],&quot;broken&quot;:false,&quot;last_checked&quot;:null,&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1558,&quot;href&quot;:&quot;https:\\\/\\\/www.researchgate.net\\\/profile\\\/Gunay-Kazimzade&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20250908044414\\\/https:\\\/\\\/www.researchgate.net\\\/profile\\\/Gunay-Kazimzade&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:27:30&quot;,&quot;http_code&quot;:403},{&quot;date&quot;:&quot;2026-04-06 02:20:19&quot;,&quot;http_code&quot;:403}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 02:20:19&quot;,&quot;http_code&quot;:403},&quot;process&quot;:&quot;done&quot;},{&quot;id&quot;:1559,&quot;href&quot;:&quot;https:\\\/\\\/www.linkedin.com\\\/in\\\/gunaykazimzade&quot;,&quot;archived_href&quot;:&quot;https:\\\/\\\/web-wp.archive.org\\\/web\\\/20250712000233\\\/https:\\\/\\\/www.linkedin.com\\\/in\\\/gunaykazimzade\\\/&quot;,&quot;redirect_href&quot;:&quot;&quot;,&quot;checks&quot;:[{&quot;date&quot;:&quot;2026-03-13 19:27:32&quot;,&quot;http_code&quot;:999},{&quot;date&quot;:&quot;2026-04-06 02:20:20&quot;,&quot;http_code&quot;:999}],&quot;broken&quot;:false,&quot;last_checked&quot;:{&quot;date&quot;:&quot;2026-04-06 02:20:20&quot;,&quot;http_code&quot;:999},&quot;process&quot;:&quot;done&quot;}]'><\/div>\n<p><b>Ein Interview mit Gunay Kazimzade<\/b> (<a href=\"https:\/\/www.weizenbaum-institut.de\/forschung\/fg20\/\" target=\"_blank\" rel=\"noopener\">Weizenbaum-Institut f\u00fcr die vernetzte Gesellschaft &#8211; Das Deutsche Internet-Institut<\/a>)<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1.jpg\" alt=\"\" width=\"200\" height=\"200\" class=\"aligncenter size-full wp-image-42893\" srcset=\"https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1.jpg 200w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1-150x150.jpg 150w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1-100x100.jpg 100w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1-76x76.jpg 76w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/Kazimzade-Gunay-rundweiss-200x200-1-50x50.jpg 50w\" sizes=\"auto, (max-width: 200px) 100vw, 200px\" \/><\/p>\n<h2><span style=\"color: #336699;\">Gunay, in deiner Forschung besch\u00e4ftigst du dich mit der Diskriminierung durch KI-Systeme. Was sind typische Beispiele daf\u00fcr?<\/span><\/h2>\n<p>Typischerweise treten Vorurteile in allen Formen der Diskriminierung in unserer Gesellschaft auf, z. B. in politischen, kulturellen, finanziellen oder sexuellen Kontexten. Diese manifestieren sich wiederum in den gesammelten Datens\u00e4tzen, Strukturen und Infrastrukturen rund um Daten, Technologie und Gesellschaft. Damit stellen sie soziale Normen und das Entscheidungsverhalten in bestimmten Datenpunkten dar. KI-Systeme, die mit diesen Datenpunkten trainiert wurden, zeigen Vorurteile in verschiedenen Bereichen und Anwendungen. <\/p>\n<p>So neigen beispielsweise Gesichtserkennungssysteme, die auf voreingenommenen Daten beruhen, dazu, farbige Menschen in verschiedenen Bildverarbeitungsanwendungen zu diskriminieren. Laut einer Studie des MIT Media Lab unterscheidet sich die Genauigkeit von Bildverarbeitungsmodellen bei wei\u00dfen M\u00e4nnern und schwarzen Frauen drastisch. Im Jahr 2018 hat Amazon sein System f\u00fcr Personaleinstellungen &#8220;plattgemacht&#8221;, das damit begonnen hatte, weibliche Bewerbende f\u00fcr technische und hochrangige Positionen auszuschlie\u00dfen. Dieses Ergebnis resultierte aus der Unternehmenskultur, die traditionell m\u00e4nnliche Kandidaten gegen\u00fcber weiblichen in diesen speziellen Positionen bevorzugte. Diese Beispiele machen deutlich, dass KI-Systeme nicht objektiv sind, und durch sie menschliche Vorurteile, die wir in der Gesellschaft haben, auf die technologische Ebene \u00fcbertragen werden k\u00f6nnen.<\/p>\n<h2><span style=\"color: #336699;\">Wie k\u00f6nnen Mitarbeitende von Bibliotheken oder digitalen Infrastrukturen f\u00fcr diese Art von Diskriminierung ein Bewusstsein entwickeln? Inwiefern k\u00f6nnen sie selbst aktiv werden?<\/span><\/h2>\n<p>Voreingenommenheit ist eine unvermeidliche Folge der situierten Entscheidungsfindung. Die Entscheidung, wer und wie Daten klassifiziert, welche Datenpunkte in das System aufgenommen werden, ist f\u00fcr die Arbeit von Bibliotheken nicht neu. Bibliotheken und Archive sind nicht nur die Anbieter von Datenspeicherung, -verarbeitung und -zug\u00e4ngen. Sie sind kritische Infrastrukturen, die Informationen verf\u00fcgbar und auffindbar machen und dabei die w\u00fcnschenswerte Vision haben, diskriminierende Ergebnisse dieser Datenpunkte zu beseitigen.<\/p>\n<p>Stellen Sie sich eine Situation vor, in der Forschende an die Bibliothek herantreten und um Bilder f\u00fcr das Training eines Gesichtserkennungsmodells bitten. Die Qualit\u00e4t und Vielfalt dieser Daten wirkt sich direkt auf die Ergebnisse der Forschung und das auf der Grundlage dieser Daten entwickelte System aus. Die <a href=\"https:\/\/www.youtube.com\/watch?v=TWWsW1w-BVo&#038;t=10s\" target=\"_blank\" rel=\"noopener\">Vielfalt der Bilder<\/a> (Youtube) wurde k\u00fcrzlich in der Studie <a href=\"https:\/\/www.media.mit.edu\/projects\/gender-shades\/overview\/\" target=\"_blank\" rel=\"noopener\">&#8220;Gender Shades&#8221;<\/a> von Joy Buolamwini vom MIT Media Lab untersucht. Die Frage ist hier, ob das Bibliothekspersonal demografische Verzerrungen in den Datens\u00e4tzen erkennen konnte, bevor die Gender-Shades-Studie ver\u00f6ffentlicht wurde. Wahrscheinlich nicht. <\/p>\n<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1.jpg\" alt=\"\" width=\"600\" height=\"400\" class=\"aligncenter size-full wp-image-42912\" srcset=\"https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1.jpg 600w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-300x200.jpg 300w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-150x100.jpg 150w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-500x333.jpg 500w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-400x267.jpg 400w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-250x167.jpg 250w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-200x133.jpg 200w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-100x67.jpg 100w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-76x51.jpg 76w, https:\/\/www.zbw-mediatalk.eu\/wp-content\/uploads\/2022\/03\/MT-face-detection-600x400-1-50x33.jpg 50w\" sizes=\"auto, (max-width: 600px) 100vw, 600px\" \/><\/p>\n<p>Die richtige Einstellung dazu kommt aus dem Bewusstsein. Bewusstsein ist die soziale Verantwortung und Selbstbestimmung, die mit kritischen bibliothekarischen F\u00e4higkeiten und Fachkenntnissen einhergeht. Sich nur auf Metadaten zu verlassen, w\u00e4re nicht notwendig, um Verzerrungen in Datensammlungen zu beseitigen. Die Diversit\u00e4t des Personals und die kritischen, fachspezifischen F\u00e4higkeiten und Werkzeuge sind entscheidend f\u00fcr die Analyse der digitalisierten Sammlungen des Bibliothekssystems. Die Schulung des Bibliothekspersonals, kontinuierliche Weiterbildung und Evaluierung sollten die prim\u00e4re Strategie von Bibliotheken sein, um Verzerrungen in Bibliotheksinformationssystemen zu erkennen, zu verstehen und abzuschw\u00e4chen.<\/p>\n<h2><span style=\"color: #336699;\">Wenn man KI-Systeme, -Algorithmen und Designs entwickeln m\u00f6chte, die nichtdiskriminierend sind, spielt das richtige Mindset eine gro\u00dfe Rolle. Wie bekommt man es? Welche Faktoren sind wichtig daf\u00fcr?<\/span><\/h2>\n<p>Ob bei Entwickler:innen, Anwender:innen, Anbieter:innen oder anderen Beteiligten, die richtige Einstellung beginnt mit<\/p>\n<ul>\n<li>einem klaren Verst\u00e4ndnis f\u00fcr den Einsatz der Technologie, f\u00fcr ihre F\u00e4higkeiten und ihre Grenzen;<\/li>\n<li>der Vielfalt und Einbeziehung in das Team, dem Stellen der richtigen Fragen zur richtigen Zeit;<\/li>\n<li>der Ber\u00fccksichtigung der Vielfalt von Gedanken, Hintergr\u00fcnden und Erfahrungen bei der Zusammensetzung des Teams;<\/li>\n<li>dem Verstehen der Aufgabe, der Beteiligten und des Fehler- und Schadenspotenzials;<\/li>\n<li>dem Pr\u00fcfen von Datens\u00e4tzen unter Ber\u00fccksichtigung der Datenherkunft. Was sollen die Daten darstellen?<\/li>\n<li>der \u00dcberpr\u00fcfung der Qualit\u00e4t des Systems durch qualitative, experimentelle und andere Methoden sowie Umfragen;<\/li>\n<li>der kontinuierlichen \u00dcberwachung, einschlie\u00dflich Kundenfeedback;<\/li>\n<li>einem Plan, um Fehler und Sch\u00e4den zu erkennen und darauf zu reagieren, sobald sie auftreten.<\/li>\n<\/ul>\n<p>Daher sollte eine langfristige Strategie f\u00fcr die Verwaltung von Bibliotheksinformationssystemen Folgendes beinhalten <\/p>\n<ul>\n<li>Transparenz\n<ul>\n<li> Transparente Prozesse<\/li>\n<li>Erkl\u00e4rbarkeit\/Interpretierbarkeit f\u00fcr jede:n Mitarbeiter:in\/Stakeholder:in<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<ul>\n<li>Ausbildung\n<ul>\n<li>Spezielle Bildung\/Ausbildung<\/li>\n<li>Universit\u00e4re Ausbildung <\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<ul>\n<li>Vorschriften\n<ul>\n<li>Standards\/Leitlinien<\/li>\n<li>Qualit\u00e4tsmetriken<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<h2><span style=\"color: #336699;\">Jede:r kennt es: Du suchst dir ein Buch bei einer Online-Plattform aus und bekommst weitere vorgeschlagen \u00e0 la &#8220;Menschen, die dieses Buch kauften, kauften auch XYZ&#8221;. Sind solche Vorschlags- und Empfehlungssysteme, die es ja auch in wissenschaftlichen Bibliotheken geben kann, diskriminierend? Inwiefern? Und wie k\u00f6nnen wir sie gerechter machen?<\/span><\/h2>\n<p>Mehrere Forschungsergebnisse legen nahe, Empfehlungen fairer zu gestalten und die von Technologieanbieter:innen geschaffenen &#8220;Filterblasen&#8221; zu vermeiden. Bei Empfehlungen geh\u00f6ren Transparenz und Erkl\u00e4rbarkeit zu den wichtigsten Techniken, um dieses Problem anzugehen. Die Entwickler:innen sollten die Erkl\u00e4rbarkeit der von den Algorithmen gemachten Vorschl\u00e4ge ber\u00fccksichtigen und die Empfehlungen f\u00fcr den:die Nutzer:in des Systems begr\u00fcndbar machen. Es sollte f\u00fcr den:die Benutzer:in transparent sein, nach welchen Kriterien diese spezielle Buchempfehlung gegeben wurde und ob sie auf dem Geschlecht, der Rasse oder anderen sensiblen Merkmalen beruht. Das Bibliothekspersonal oder die Mitarbeitenden der digitalen Infrastruktur sind die Hauptakteur:innen in dieser Technologieeinf\u00fchrungsphase. Sie sollten sich dessen bewusst sein und die Entscheidungstr\u00e4ger:innen darin best\u00e4rken, die Technologie einzusetzen, die die spezifischen Funktionen f\u00fcr Erkl\u00e4rbarkeit und Transparenz in den Bibliothekssystemen beinhaltet.<\/p>\n<h2><span style=\"color: #336699;\">Wenn ein Institut, eine Bibliothek oder ein Repositorium herausfinden m\u00f6chten, ob ihre Website, ihr Bibliothekskatalog oder eine andere Infrastruktur, die sie anbieten, diskriminierend sind, wie k\u00f6nnen sie das anstellen? Woran erkenne ich, wer diskriminiert wird? Wo kann ich einen Diskriminierungs-Check-up machen lassen?<\/span><\/h2>\n<p>Erstens sollte das &#8220;Check-up&#8221; damit beginnen, die Qualit\u00e4t der Daten durch quantitative und qualitative, gemischte experimentelle Methoden zu \u00fcberpr\u00fcfen. Au\u00dferdem gibt es mehrere frei zug\u00e4ngliche Methoden und Werkzeuge f\u00fcr die Fairnesspr\u00fcfung und die Erkennung\/Entsch\u00e4rfung von Vorurteilen in verschiedenen Bereichen. <a href=\"https:\/\/aif360.mybluemix.net\" target=\"_blank\" rel=\"noopener\">AI Fairness 360<\/a> beispielsweise ist ein Open-Source-Toolkit, das dabei hilft, Diskriminierung und Voreingenommenheit in maschinellen Lernmodellen w\u00e4hrend des gesamten Lebenszyklus von KI-Anwendungen zu untersuchen, zu melden und abzuschw\u00e4chen.<\/p>\n\n<p>Ein weiteres n\u00fctzliches Tool ist <a href=\"https:\/\/www.microsoft.com\/en-us\/research\/project\/datasheets-for-datasets\/\" target=\"_blank\" rel=\"noopener\">&#8220;Datasheets for datasets&#8221;<\/a>, das dazu dient, die f\u00fcr das Training und die Bewertung von Modellen f\u00fcr maschinelles Lernen verwendeten Datens\u00e4tze zu dokumentieren. Dieses Tool ist sehr wichtig f\u00fcr die Entwicklung von Metadaten f\u00fcr Bibliotheks- und Archivsysteme, die f\u00fcr das Modelltraining weiterverwendet werden k\u00f6nnen.<\/p>\n<p>Insgesamt beginnt alles mit dem richtigen Mindset und dem Bewusstsein f\u00fcr die Herausforderung der Verzerrung in bestimmten Bereichen.<\/p>\n<p><i>Dieser Text ist eine \u00dcbersetzung aus dem Englischen.<\/i><\/p>\n<p><b>Zum Weiterlesen<\/b><\/p>\n<ul>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2018\/06\/kuenstliche-intelligenz-neue-perspektiven-fuer-citizen-science-forschung-und-bibliotheken\/ \" >K\u00fcnstliche Intelligenz: Neue Perspektiven f\u00fcr Citizen Science, Forschung und Bibliotheken<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2021\/11\/science-checker-behauptungen-mit-open-access-und-kuenstlicher-intelligenz-pruefen\/\" >Science Checker: Behauptungen mit Open Access und k\u00fcnstlicher Intelligenz pr\u00fcfen<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2020\/11\/digitale-open-science-tools-mehr-offenheit-durch-inklusives-design\/\" > Digitale Open-Science-Tools: mehr Offenheit durch inklusives Design<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2020\/03\/horizont-bericht-2020-ai-xr-und-oer-setzen-sich-langsam-in-der-hochschulbildung-durch\/ \" >Horizont-Bericht 2020: AI, XR und OER setzen sich langsam in der Hochschulbildung durch<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2019\/09\/open-access-africarxiv-erleichtert-den-wissensaustausch-zwischen-afrika-und-europa\/ \" >Open Access: AfricArXiv erleichtert den Wissensaustausch zwischen Afrika und Europa<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2018\/11\/dgi-praxistage-wie-veraendert-kuenstliche-intelligenz-die-arbeitswelt-von-information-professionals\/ \" >DGI-Praxistage: Wie ver\u00e4ndert k\u00fcnstliche Intelligenz die Arbeitswelt von Information Professionals?<\/a><\/li>\n<li><a href=\"https:\/\/www.zbw-mediatalk.eu\/de\/2020\/07\/hackathon-coding-waterkant-wie-man-bibliotheksservices-durch-chatsbots-und-kuenstliche-intelligenz-besser-machen-kann\/\" >Hackathon Coding.Waterkant: Wie man Bibliotheksservices durch Chatbots und k\u00fcnstliche Intelligenz besser machen kann<\/a><\/li>\n<\/ul>\n<div class='eckosc eckosc_contrast_block'><div class='eckosc_contrast_block_inner'>\n<p><b>Wir sprachen mit:<\/b><\/p>\n<p><b>Gunay Kazimzade<\/b> ist Doktorandin im Bereich K\u00fcnstliche Intelligenz am <a href=\"https:\/\/www.weizenbaum-institut.de\/\" target=\"_blank\" rel=\"noopener\">Weizenbaum-Institut f\u00fcr die vernetzte Gesellschaft<\/a> in Berlin, an dem sie derzeit in der Forschungsgruppe &#8220;Kritikalit\u00e4t von KI-basierten Systemen&#8221; arbeitet. Au\u00dferdem ist sie Doktorandin der Informatik an der Technischen Universit\u00e4t Berlin. Ihre Forschungsschwerpunkte sind geschlechtsspezifische und rassistische Vorurteile in der KI, Inklusivit\u00e4t in der KI und KI-gest\u00fctzte Bildung. Sie ist <a href=\"https:\/\/www.ted.com\/talks\/gunay_kazimzade_racial_and_gender_biases_in_ai\" target=\"_blank\" rel=\"noopener\">TEDx-Sprecherin<\/a>, Gewinnerin des Presidential Award for Youth in Aserbaidschan und des AI Newcomer Award in Deutschland. Gunay Kazimzade ist auch auf <a href=\"https:\/\/scholar.google.de\/citations?user=DQQXOGEAAAAJ&#038;hl=en\" target=\"_blank\" rel=\"noopener\">Google Scholar<\/a>, <a href=\"https:\/\/www.researchgate.net\/profile\/Gunay-Kazimzade\" target=\"_blank\" rel=\"noopener\">ResearchGate<\/a> und <a href=\"https:\/\/www.linkedin.com\/in\/gunaykazimzade\/\" target=\"_blank\" rel=\"noopener\">LinkedIn<\/a> zu finden.<br \/>\nPortr\u00e4t: Weizenbaum Institut&copy;<\/p>\n<\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>K\u00fcnstliche Intelligenz (KI) ist aus dem modernen Wissenschaftssystem nicht mehr wegzudenken. Wer aber stellt sicher, dass solche KI-Systeme niemanden diskriminieren und falsche Schl\u00fcsse aus vorliegenden Daten ziehen? Und was haben Bibliotheken damit zu tun?<\/p>\n","protected":false},"author":4,"featured_media":42865,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_has_post_settings":[],"footnotes":""},"categories":[76],"tags":[2455,2456,2406,1197,1496,1711],"hashtags":[],"class_list":["post-42864","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-innovationsmanagement","tag-diskriminierung","tag-inklusion","tag-ki","tag-kuenstliche-intelligenz","tag-machinelles-lernen","tag-softwareentwicklungen"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/posts\/42864","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/comments?post=42864"}],"version-history":[{"count":3,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/posts\/42864\/revisions"}],"predecessor-version":[{"id":43288,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/posts\/42864\/revisions\/43288"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/media\/42865"}],"wp:attachment":[{"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/media?parent=42864"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/categories?post=42864"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/tags?post=42864"},{"taxonomy":"hashtags","embeddable":true,"href":"https:\/\/www.zbw-mediatalk.eu\/de\/wp-json\/wp\/v2\/hashtags?post=42864"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}