KIT-Bibliothek

„Das Black-Box-Problem der Künstlichen Intelligenz“ – Forschende am Karlsruher Institut für Technologie arbeiten an Explainable AI (XAI) - Campus-Report am 21.10.2025

Author

Stefan Fuchs, Nadja Klein

Interviewee

Tim Bündert

Participating institute

Studium Generale. Forum Wissenschaft und Gesellschaft (FORUM)
Scientific Computing Center (SCC)

Genre

Beiträge rund ums KIT

Description

Die künstliche Intelligenz hat in den Wissenschaften einen Siegeszug ohne Beispiel angetreten. Neuronale Netze oder Maschinenlernen erlauben in den unterschiedlichsten Forschungsdisziplinen dort schnelle und überraschende Ergebnisse zu erzielen, wo große Datenmengen für das Training der KI zur Verfügung stehen. Das Problem: die Forschenden verstehen nicht wirklich, wie das neuronale Netz zu bestimmten Ergebnissen kommt. Dieses so genannte Blackbox-Problem der KI hat Forschenden, die damit arbeiten den Vorwurf eingebracht, gar nicht wirklich Wissenschaft zu betreiben, sondern nur eine Art von Engineering. Ethisch bedenklich wird dieses Problem bei der Anwendung von KI in sozial sensiblen Bereichen wie etwa der Vergabe von Krediten oder der Auswahl geeigneter BewerberInnen für einen Arbeitsplatz. Wer hier den Entscheidungen der KI blind vertraut, geht ein hohes Risiko ein. Deshalb sind die Versuche die Blackbox-KI in eine mehr oder weniger transparente Glassbox-KI zu verwandeln, zu einer Frontlinie der Forschung geworden. Auch am Scientific Computing Center des Karlsruher Instituts für Technologie arbeitet man an der sogenannten Explainable AI, der erklärbaren KI und versucht die Geheimnisse der Black-Box ein Stück weit zu lüften.

Keywords

Blackbox KI, Glassbox KI, Maschinenlernen, Neuronale Netze, Explainable artificial intelligence, XAI, interpretability, scientific method, knowledge discovery, numerische Methoden, Stochastik, generative KI, Wissenschaftlichkeit, Erkenntnisgewinn, Big Data, Training, Halluzinieren, LIME, SHAP, Kognitive Prozesse, Trainingsdaten, EU-AI-Act, Vertrauen, post-hoc Explainability, Interpretability, Transparency, Open-Source-Software, Entscheidungsbäume, Attention Mechanism, ChatGPT, LLM, Parameter, agnostisch, Spieltheorie, use case specific, Expertensysteme, Effizienz, Hybrid-Modelle, kognitive Prozesse, menschliche Intelligenz

Duration (hh:mm:ss)

00:16:41

Series

Campus-Report

Published on

22.07.2025

Subject area

Computer science

License

Creative Commons Attribution 4.0 International

Audio bitrate 103500 bps
Audio channels 2
Audio Codec mp3
Audio Sample Rate 44100 Hz
Total Bitrate 103500 bps
Container mp3
Duration 1000.907755 s
Filename DIVA-2025-248_mp3.mp3
File Size 12.949.318 byte

Media URL

Embed Code

Campus-Report Episodes 1-50 of 1235