Carina Zehetmaier:

WIE VERTRAUENSWÜRDIG IST KI?


Über den Bias der KI und die möglichen Folgen


Release: 29.02.2024 auf YouTube/Spotify
Expertin: Carina Zehetmaier

Moderation: Gabriele Schelle
Folge: 2


Wir sprechen wir mit Carina Zehetmaier, KI-Expertin und Unternehmerin über den Bias der KI und die möglichen Folgen: Wie vertrauenswürdig ist KI wirklich? Wie schleicht sich Diskriminierung in die Technologie? Wie bringen wir Gerechtigkeit in ein System, von dem wir nicht wissen wie es arbeitet? Was bedeutet der Bias der KI im Kontext der Strafverfolgung? Wie könnte der Weg zu einer gerechten KI aussehen? Welche Art von Regulierung erfährt KI durch den Artificial Intelligence Act (AIA) der EU?

 

Über die Expertin: 

Carina Zehetmaier ist KI-Expertin, Unternehmerin und Botschafterin für Women in AI Austria. Als Unternehmerin mit einer Leidenschaft für KI und soziales Unternehmertum genießt sie es, Geschäftsmöglichkeiten zu erforschen, die die Kraft neuer Technologien zum Nutzen der Menschen und unseres Planeten einsetzen. Als ausgebildete Menschenrechtsjuristin verfügt sie über mehrere Jahre Erfahrung in Nichtregierungs-, Regierungs- und internationalen Organisationen und hat ein tiefergehendes Verständnis von Diplomatie, Weltpolitik und internationalen Beziehungen. 


Über den Host:

Gabriele Schelle ist Theaterregisseurin und Autorin.


In dieser Folge:

0:00  Intro

0:56  Wie vertrauenswürdig ist die KI wirklich? 

1:29  Problem des Halluzinierens   

4:10  Kontext der Strafverfolgung

5:36  Black-Box Problem: Recherchegebiet „Explainable AI” 

6:16  Regulierung der KI

6:36  Bias: Fehlentscheidungen durch Diskriminierung

7:26  Rechenschaftspflicht der KI 

9:14  Wie misst man eigentlich, ob das System performt oder nicht?

11:15  AI Act der EU / Risikopyramide

13:04  Deep fakes 

14:24  Menschenrechte und Impact Assessment (Folgenabschätzung)

14:58  KI kann nicht objektiv und neutral sein 

15:48  Diversität

17:25  Automation Bias
17:43  „Coded Bias“ – Dokumentarfilm von Joy Buolamwini

17:54  „Ein Algorithmus bezieht sich auf historische Informationen und macht eine Vorhersage über die Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es ist so, als würde unsere Vergangenheit in den Algorithmen verweilen.“ Joy Buolamwini

21:34  Chat-GPT wird am englischsprachigen Web trainiert

24:59  Environmental Impact der KI

34:12  Ängste vor KI 

35:51  Wir müssen sicherstellen, dass wir alle Menschen mitnehmen

36:20  Fake und Wirklichkeit 

 

Links und Quellen:


Redaktion und Mitarbeit: 

Elena Messner (Kuration), Gabriele Schelle (Kuration/Moderation), Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa Karabut (Grafik)


Kontakt:
Wir freuen uns über eure Fragen und Kommentare an 
info@theater-factory.de.


Unterstützt uns:

Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf der Plattform eurer Wahl – und empfehlt uns gerne weiter! 


Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts. 


Danke fürs Zuhören und bis zum nächsten Mal!

Zur Übersicht
Gratis Hören auf YouTube Gratis Hören auf Spotify

„Ein Algorithmus bezieht sich auf historische Informationen und macht eine Vorhersage über die Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es ist so, als würde unsere Vergangenheit in den Algorithmen verweilen.“

Joy Buolamwini in Coded Bias
(Film von Shalini Kantayya, 2020) 
 

Share by: