KIT-Bibliothek
FAQ Audio-/Videodatei publizieren

„Das Black-Box-Problem der Künstlichen Intelligenz“ – Forschende am Karlsruher Institut für Technologie arbeiten an Explainable AI (XAI) - Campus-Report am 21.10.2025

Autor

Stefan Fuchs, Nadja Klein

Interviewter

Tim Bündert

Beteiligtes Institut

Studium Generale. Forum Wissenschaft und Gesellschaft (FORUM)
Scientific Computing Center (SCC)

Genre

Beiträge rund ums KIT

Beschreibung

Die künstliche Intelligenz hat in den Wissenschaften einen Siegeszug ohne Beispiel angetreten. Neuronale Netze oder Maschinenlernen erlauben in den unterschiedlichsten Forschungsdisziplinen dort schnelle und überraschende Ergebnisse zu erzielen, wo große Datenmengen für das Training der KI zur Verfügung stehen. Das Problem: die Forschenden verstehen nicht wirklich, wie das neuronale Netz zu bestimmten Ergebnissen kommt. Dieses so genannte Blackbox-Problem der KI hat Forschenden, die damit arbeiten den Vorwurf eingebracht, gar nicht wirklich Wissenschaft zu betreiben, sondern nur eine Art von Engineering. Ethisch bedenklich wird dieses Problem bei der Anwendung von KI in sozial sensiblen Bereichen wie etwa der Vergabe von Krediten oder der Auswahl geeigneter BewerberInnen für einen Arbeitsplatz. Wer hier den Entscheidungen der KI blind vertraut, geht ein hohes Risiko ein. Deshalb sind die Versuche die Blackbox-KI in eine mehr oder weniger transparente Glassbox-KI zu verwandeln, zu einer Frontlinie der Forschung geworden. Auch am Scientific Computing Center des Karlsruher Instituts für Technologie arbeitet man an der sogenannten Explainable AI, der erklärbaren KI und versucht die Geheimnisse der Black-Box ein Stück weit zu lüften.

Schlagwörter

Blackbox KI, Glassbox KI, Maschinenlernen, Neuronale Netze, Explainable artificial intelligence, XAI, interpretability, scientific method, knowledge discovery, numerische Methoden, Stochastik, generative KI, Wissenschaftlichkeit, Erkenntnisgewinn, Big Data, Training, Halluzinieren, LIME, SHAP, Kognitive Prozesse, Trainingsdaten, EU-AI-Act, Vertrauen, post-hoc Explainability, Interpretability, Transparency, Open-Source-Software, Entscheidungsbäume, Attention Mechanism, ChatGPT, LLM, Parameter, agnostisch, Spieltheorie, use case specific, Expertensysteme, Effizienz, Hybrid-Modelle, kognitive Prozesse, menschliche Intelligenz

Laufzeit (hh:mm:ss)

00:16:41

Serie

Campus-Report

Publiziert am

22.07.2025

Fachgebiet

Informatik

Lizenz

Creative Commons Namensnennung 4.0 International

Audiobitrate 103500 bps
Audio Kanäle 2
Audio Codec mp3
Audio Abtastrate 44100 Hz
Gesamtbitrate 103500 bps
Container mp3
Dauer 1000.907755 s
Dateiname DIVA-2025-248_mp3.mp3
Dateigröße 12.949.318 byte

Mediathek-URL

Embed-Code

Campus-Report Folgen 1-50 von 1235