WEBVTT

00:16.640 --> 00:19.820
Wir kommen zum zweiten
Vortrag in diesem Block.

00:20.720 --> 00:23.800
Der Vortrag von Professorin

00:23.800 --> 00:27.020
Christiane Wendehorst,
die leider nicht persönlich hier ist.

00:27.600 --> 00:33.500
Also wir werden jetzt einen digitalen
Vortrag hören, der live zugeschaltet ist.

00:33.500 --> 00:38.300
Der Hintergrund, können Sie sich
denken, ist die Pandemie und die unklare

00:40.940 --> 00:43.400
Corona Lage, die lange unklar war.

00:44.780 --> 00:48.360
Das sind alles Gründe,
weshalb Frau Wendehorst

00:48.940 --> 00:51.480
nicht aus Österreich anreisen konnte.

00:51.480 --> 00:55.540
Also umso mehr freuen wir uns,
dass sie uns live zugeschaltet wird.

00:57.580 --> 01:00.880
Frau Wendehorst
ist seit 2008 Professorin

01:00.880 --> 01:03.620
für Zivilrecht an der Universität Wien

01:03.880 --> 01:06.920
und sie ist unter anderem
Gründungsmitglied und Scientific

01:06.920 --> 01:12.720
Director des European Law Institute,
Vorsitzende des Akademie

01:12.720 --> 01:16.260
Rats der Österreichischen Akademie
der Wissenschaften.

01:16.500 --> 01:21.400
Sie ist stellvertretende
Vorständin des Instituts für Innovation

01:21.400 --> 01:25.700
und Digitalisierung im Recht
sowie Mitglied der Bioethikkommission

01:25.700 --> 01:29.500
beim Bundeskanzleramt
und des Geschäftsführenden Ausschusses

01:29.880 --> 01:33.260
des Österreichischen Juristentag.

01:33.620 --> 01:37.880
Sie wird also als Expertin
zu vielen Themen, also

01:38.500 --> 01:43.520
zu digitalen Inhalten,
zum Internet der Dinge in Daten, Ökonomie,

01:43.520 --> 01:48.920
künstliche Intelligenz unter anderem
von der Europäischen Kommission,

01:49.940 --> 01:54.220
vom Europäischen Parlament
und der deutschen Bundesregierung

01:54.220 --> 01:57.500
immer wieder als Expertin angefragt.

01:58.520 --> 02:01.040
Ihr gegenwärtiger Fokus

02:01.040 --> 02:05.640
sind die rechtlichen Herausforderungen
der Digitalisierung.

02:05.640 --> 02:09.640
Und auf europäischer Seite
leitet sie zurzeit

02:09.640 --> 02:14.020
das transatlantische Projekt
Principles for a Data Economy.

02:14.480 --> 02:18.220
So, jetzt bin ich gespannt,
was die Technik macht.

02:21.480 --> 02:23.580
Ich sehe Sie Frau Wendehorst.

02:23.640 --> 02:25.760
Herzlich willkommen!

02:27.040 --> 02:29.260
Ganz herzlichen Dank!

02:31.040 --> 02:32.180
Ganz herzlichen Dank

02:32.180 --> 02:36.600
sowohl für die Einladung als
auch für die Flexibilität, dass Sie hier,

02:36.980 --> 02:40.380
wie man das so schön neudeutsch sagt
remotely teilnehmen kann.

02:40.880 --> 02:42.200
Das liegt offengestanden

02:42.200 --> 02:46.160
weniger an der Pandemie als an zahlreichen
Terminkollisionen.

02:46.260 --> 02:49.200
Ich freue mich aber sehr,
dass das möglich ist.

02:49.540 --> 02:52.160
Ich hoffe, Sie sehen auch meine Folien.

02:52.820 --> 02:55.640
Ich bin gebeten worden, kurz
aus juristischer Sicht

02:55.640 --> 03:00.020
zum Thema KI Kontrolle
und KI Haftung Stellung zu nehmen.

03:00.560 --> 03:04.960
Das sind zwei Themen,
die derzeit die europäische,

03:05.760 --> 03:07.620
ja nicht nur juristische Gemeinschaft,

03:07.620 --> 03:11.060
sondern alle, die mit KI zu tun haben,
sehr, sehr bewegen.

03:11.900 --> 03:18.440
Ich fange an mit einem kurzen Überblick
über das, was ich in punkto Kontrolle

03:18.440 --> 03:23.260
von KI Sicherheit
von KI in den letzten Jahren getan hat.

03:23.640 --> 03:27.280
Und die neueste Entwicklung ist
ja dieser Entwurf für ein Artificial

03:27.280 --> 03:30.260
Intelligence Act, ein Gesetz,
künstliche Intelligenz.

03:30.840 --> 03:35.880
Dann werde ich kurz auch darauf eingehen,
wo wir denn in puncto KI Haftung

03:35.880 --> 03:39.500
auf EU-Ebene stehen
und dann abschließend eingehen

03:39.500 --> 03:43.940
auf das Verhältnis von
KI Haftung und KI Kontrolle.

03:45.660 --> 03:47.480
Fangen wir einmal an an

03:47.480 --> 03:50.860
Welche Schritte haben denn zu dem jetzt

03:50.860 --> 03:55.200
auf dem Tisch liegenden Vorschlag
für einen Artificial Intelligence Act,

03:55.600 --> 03:58.620
ein Gesetz künstlicher
Intelligenz geführt?

03:59.100 --> 04:04.400
Auf EU-Ebene fing das vor allem an
mit der hochrangigen Expertengruppe

04:04.400 --> 04:07.500
der EU-Kommission
für Künstliche Intelligenz der High

04:07.500 --> 04:12.200
Level Expert Group on AI, die 2019

04:12.500 --> 04:16.740
schon Ethik Richtlinien
für vertrauenswürdige KI vorgelegt hat.

04:17.540 --> 04:21.400
Später dann auch noch Policy and Investment Recommendations.

04:21.700 --> 04:26.820
Zwei sehr hilfreiche Dokumente,
die Ihnen allen nur ans Herz legen kann,

04:26.820 --> 04:28.920
die Sie aber wahrscheinlich
sehr gut kennen.

04:30.640 --> 04:32.820
Ich will jetzt gar nicht im Einzelnen

04:32.820 --> 04:37.360
auf diese Ethik Richtlinien
und diese Recommendations eingehen.

04:37.680 --> 04:42.780
Nur ganz kurz Es gibt wurden
vier große ethische Grundsätze formuliert

04:43.060 --> 04:48.780
Respect for Human Autonomy, Prevention of Harm, Fairness
and Explainability.

04:48.820 --> 04:54.440
So wurden es sieben Haupt Anforderungen
Key Requirements formuliert, die

04:55.540 --> 05:01.260
vertrauenswürdige KI, ethisch
hochwertige KI hier zu erfüllen hat.

05:01.480 --> 05:04.380
Und am Ende gab es auch noch
Bewertungs Checklisten,

05:04.380 --> 05:07.640
die für Unternehmen sehr,
sehr hilfreich sein können.

05:08.540 --> 05:11.860
Das waren die Vorarbeiten auf EU-Ebene.

05:12.180 --> 05:17.400
Parallel hatten wir natürlich auch
Vorarbeiten auf nationaler Ebene.

05:17.400 --> 05:20.940
Da hat zunächst Dänemark angefangen

05:20.940 --> 05:27.760
mit einem Ethik Komitee,
das hier einen Bericht vorgelegt hat.

05:28.180 --> 05:31.320
Deutschland war dann
als zweites an der Reihe.

05:31.600 --> 05:36.380
2018 wurde die sogenannte Daten
Ethikkommission als zeitlich

05:36.380 --> 05:40.460
begrenztes Beratungsgremium für die
deutsche Bundesregierung eingerichtet.

05:41.400 --> 05:44.740
Diese Daten Ethikkommission
hatte den Auftrag,

05:44.740 --> 05:48.480
innerhalb eines Jahres
einen ethischen und regulatorischen Rahmen

05:48.480 --> 05:53.520
für Daten, Algorithm Decision Making
und künstliche Intelligenz zu entwickeln.

05:53.960 --> 05:58.240
Ich hatte damals die Ehre, das zusammen
mit Christiane Woopen leiten zu dürfen

05:58.620 --> 06:02.940
und wir haben dann im Oktober 2019
der deutschen Bundesregierung

06:02.940 --> 06:07.600
unseren Bericht überreicht
mit ethischen Richtlinien,

06:07.600 --> 06:11.660
aber auch 75 konkreten
Handlungsempfehlungen,

06:12.180 --> 06:13.380
von denen wir uns freuen,

06:13.380 --> 06:17.320
dass eine ganze Reihe
inzwischen auch schon angegangen worden

06:17.320 --> 06:23.400
ist und umgesetzt worden ist oder
sich zumindest in der Umsetzung befinden.

06:24.860 --> 06:27.500
Zu diesen Empfehlungen, die

06:27.500 --> 06:32.040
wir hier ausgesprochen haben,
gehörte auch die Empfehlung eines

06:32.040 --> 06:37.480
Risiko adaptierten Regulierungs
Ansatzes für künstliche Intelligenz,

06:37.480 --> 06:41.000
und zwar sowohl auf EU-Ebene als auch dann

06:41.320 --> 06:43.960
nachrangig auf nationaler Ebene.

06:44.000 --> 06:47.000
Unter anderem haben wir eine horizontale

06:47.280 --> 06:51.660
EU-Verordnung vorgeschlagen,
die sich hier eben

06:51.820 --> 06:55.660
mit den Risiken künstlicher
Intelligenz befasst

06:55.660 --> 07:00.500
und diese Risiko Pyramide, die Sie hier
auf der Folie hoffentlich sehen können,

07:01.880 --> 07:04.840
gehörte also zu unseren Empfehlungen.

07:04.840 --> 07:07.500
Was sehen wir auf dieser Risiko Pyramide?

07:07.500 --> 07:11.380
Wir sehen in erster Linie
einen großen grünen Sockel Bereich,

07:11.740 --> 07:15.220
der soll all diejenigen
algorithmischen Systeme.

07:15.220 --> 07:19.020
Wir haben den Begriff
künstliche Intelligenz vermieden, weil er

07:19.020 --> 07:21.100
unseres Erachtens in die Irre führt.

07:21.100 --> 07:25.620
Wir haben hier einen großen grünen Sockel,
algorithmische Systeme,

07:26.140 --> 07:29.860
die keine oder geringe Schädigungen
Potenzial haben und für die

07:29.860 --> 07:32.260
wir keine gesonderten Maßnahmen brauchen.

07:32.880 --> 07:37.820
Dann haben wir aber auch einen Bereich
von Anwendungen mit erhöhtem Risiko.

07:38.200 --> 07:42.100
Der ist gestaffelt
Anwendungen mit einem gewissen Schädigungspotenzial,

07:42.100 --> 07:44.880
Anwendungen mit regelmäßigen
oder deutlichen Schädigungs-

07:44.940 --> 07:48.580
Potenzial und Anwendungen
mit erheblichen Schädigungspotenzial,

07:48.980 --> 07:52.120
wo wir abgestuften
Handlungsbedarf gesehen haben

07:52.120 --> 07:56.440
und ganz oben sozusagen
die kleine rote Spitze verbotene KI,

07:57.160 --> 08:01.780
Anwendungen mit einem
unvertretbaren Schädigungspotenzial.

08:03.100 --> 08:06.400
Wie ist das dann weitergegangen
auf europäischer Ebene?

08:06.460 --> 08:09.780
Wir wissen, dass Ursula von der Leyen
ursprünglich ein Rechtsakt

08:09.780 --> 08:14.640
innerhalb der ersten 100 Tage
ihrer Präsidentschaft angekündigt hat.

08:15.100 --> 08:19.200
Es ist dann im Februar
2020 zunächst ein Weißbuch geworden

08:19.200 --> 08:21.520
mit einer öffentlichen Konsultation.

08:22.120 --> 08:26.760
In diesem Weißbuch trat man ein
für ein Ökosystem für Exzellenz

08:26.760 --> 08:29.100
und ein Ökosystem für Vertrauen.

08:30.600 --> 08:35.440
Im Oktober 2020 ist dann das
Europäische Parlament vorgeprescht

08:35.440 --> 08:39.780
mit einem Vorschlag für eine Verordnung
über ethische Grundsätze

08:39.780 --> 08:43.640
für KI, Robotik
und weitere Anwendungen.

08:44.020 --> 08:47.080
Und am 21. April 2021

08:47.080 --> 08:50.200
war es dann so weit,
dass auch die EU-Kommission hier

08:50.480 --> 08:53.220
einen Vorschlag für ein europäisches

08:53.220 --> 08:57.500
KI Gesetz, also diesen Artificial
Intelligence Act vorgelegt hat.

08:57.500 --> 09:02.540
Und mit dem befassen wir uns
natürlich jetzt seit einigen Monaten

09:02.880 --> 09:05.440
extrem intensiv.

09:05.440 --> 09:08.700
Wenn wir uns einmal ansehen,
welchen Regulierungs Ansatz

09:08.700 --> 09:14.000
die EU-Kommission hier gewählt hat,
dann ist das zunächst einmal ein

09:14.000 --> 09:19.060
ein ebenfalls ein Risiko
adaptierte Regulierungs Ansatz

09:19.400 --> 09:22.260
und auch die Farben und die Symbolik,

09:22.260 --> 09:26.100
die die Europäische Kommission hier
in mehreren Darstellungen wählt.

09:26.100 --> 09:28.700
Das ist eine offizielle Folie
der EU-Kommission.

09:28.700 --> 09:31.740
Das ist nicht meine Folie,
das ist eine Folie der EU-Kommission,

09:32.600 --> 09:35.600
sieht also deutliche Parallelen mit dem,

09:35.600 --> 09:39.880
was die Daten Ethikkommissionen
im Jahr 2019 vorgeschlagen hat.

09:40.400 --> 09:43.140
Ich will jetzt nicht
sagen, dass die Inhalte

09:43.140 --> 09:44.760
auch mit dem übereinstimmen, was

09:44.760 --> 09:47.640
die Daten Ethikkommissionen
im Detail vorgeschlagen hat.

09:48.000 --> 09:51.180
Hier mögen, vielleicht mag vielleicht
die farbliche Übereinstimmung

09:51.180 --> 09:54.960
und diese Pyramide
ein bisschen mehr Ähnlichkeit

09:55.820 --> 09:59.020
suggerieren, als dann
tatsächlich im Detail drinsteckt.

09:59.020 --> 10:02.220
Aber der Risiko adaptierte
Regulierungs Ansatz

10:02.460 --> 10:06.420
und auch der
insgesamte Regulierungs Ansatz,

10:06.420 --> 10:10.200
der wurde sicherlich hier
tatsächlich übernommen.

10:10.880 --> 10:15.740
Wir haben hier also nach diesem Artificial
Intelligence Act diese vier Risiko

10:15.740 --> 10:21.600
Stufen, diese minimale oder kein Risiko,
wo wir keine spezielle Regulierung haben.

10:21.860 --> 10:26.100
Wir haben ganz oben eben das unakzeptable

10:26.100 --> 10:29.880
Risiko, wo zum Beispiel
Social Scoring dazugehört.

10:30.340 --> 10:33.640
Wir haben dann eben zwei weitere Risiko

10:33.640 --> 10:37.380
Stufen in der Mitte
einmal hoch Risiko Anwendungen.

10:37.760 --> 10:40.580
Bei denen gibt es dann
spezielle Anforderungen

10:40.580 --> 10:45.740
und ein Konformitätsbewertungsverfahren
und Anwendungen,

10:46.460 --> 10:51.460
wo wir an die EU-Kommission
nur an Transparenz Risiko sieht,

10:51.760 --> 10:56.340
wenngleich ich das ein bisschen in Frage
stellen möchte, obwohl das ob das gleich

10:56.660 --> 10:59.380
so hier gerechtfertigt
ist, hier nur ein Transparenz

10:59.380 --> 11:02.380
Risiko bei diesen Anwendungen zu sehen.

11:02.400 --> 11:07.520
Da geht es um Deepfakes, um Emotions
Erkennung, um Chatbots und ähnliches.

11:08.220 --> 11:12.700
Im Zentrum steht
die stehen die hoch Risiko Anwendungen

11:13.380 --> 11:18.640
und für diese hoch Risiko Anwendungen
werden bestimmte Anforderungen formuliert.

11:18.960 --> 11:22.460
Eben ein Risk Management System
Data und Data Governance

11:22.480 --> 11:27.020
technische Dokumentation,
dann auch Logging von Vorgängen

11:28.060 --> 11:32.660
zur Dokumentation,
bestimmte Transparenz Anforderungen

11:32.960 --> 11:37.540
Human Oversight natürlich, Accuracy, Robustness and Cyber Security.

11:37.760 --> 11:40.700
Das sind die Anforderungen an
hoch Risiko KI.

11:42.660 --> 11:45.680
Vielleicht noch ganz am Schluss,

11:45.680 --> 11:48.540
weil ich kann natürlich
auf die Einzelheiten hier nicht eingehen.

11:49.240 --> 11:52.600
Etwas, was man sehen muss
ist das der Artificial Intelligence

11:53.140 --> 11:58.180
gestrickt ist nach dem Muster klassischer
Produktsicherheit Gesetzgebung,

11:58.580 --> 12:01.360
also der Artificial
Intelligence ist jetzt nicht

12:01.360 --> 12:02.380
geht nicht den Weg,

12:02.380 --> 12:06.560
den das EU-Parlament vorgezeigt hat
mit Ethik Richtlinien, sondern das ist

12:06.800 --> 12:10.280
klassische Produktsicherheitsgesetzgebung.

12:11.680 --> 12:15.220
Das heißt, im Fokus
stehen die sogenannten Provider,

12:15.220 --> 12:20.620
also diejenigen, die KI-Systeme
hier entwickeln und bereitstellen.

12:21.100 --> 12:25.840
Wir haben eine Vorschrift,
die sich auch mit Pflichten von Verwendern

12:25.840 --> 12:29.840
und damit sind professionelle Verwender
sagen, dass jetzt Unternehmen

12:29.840 --> 12:34.020
oder auch öffentliche Stellen
gemeint betreffen.

12:34.020 --> 12:37.960
Also auch diese Users,
wie das heißt, haben gewisse Pflichten.

12:37.960 --> 12:44.440
Aber im Kern sind das Pflichten für
diejenigen, die hier KI-Systeme entwickeln

12:44.680 --> 12:49.840
und auf den Markt bringen, also
klassische Produktsicherheitsgesetzgebung.

12:50.840 --> 12:55.080
Und wenn wir jetzt von Produktsicherheit
Gesetzgebung sprechen,

12:55.080 --> 12:59.580
dann denken wir natürlich in erster Linie
an die existierenden

12:59.960 --> 13:03.740
Produktsicherheit Gesetze,
die ja ganz stark fokussiert sind

13:03.740 --> 13:09.140
auf einen Schutz vor... oder
auf die Sicherheit vor physischen Risiken.

13:09.500 --> 13:14.700
Das heißt vor Schäden für Körper,
Gesundheit, Eigentum.

13:15.080 --> 13:19.480
Das ist jetzt hier im Artificial
Intelligence Act etwas anders.

13:19.920 --> 13:23.700
Ja, auch der Artificial
Intelligence Act befasst

13:23.700 --> 13:25.980
sich mit solchen physischen Risiken.

13:26.000 --> 13:30.220
Die EU-Kommission verwendet
lieber den Begriff Safety Risk,

13:30.320 --> 13:32.660
also das heißt Tod, Gesundheitsschäden,

13:33.420 --> 13:37.760
Eigentumsschäden und so weiter, die die
unsichere Produkte hervorgerufen werden.

13:38.120 --> 13:42.220
Aber der Artificial Intelligence Act
geht eben weiter.

13:42.640 --> 13:49.220
Er erweitert den Sicherheitsbegriff
sozusagen um die soziale Dimension von KI.

13:49.640 --> 13:54.100
Er adressiert auch, was die EU-Kommission
Fundamental Rights Risks nennt,

13:54.100 --> 14:00.320
also eben die ganzen Risiken
von Manipulation,

14:00.600 --> 14:03.340
Ausbeutung und Ähnliches, die durch

14:03.680 --> 14:06.600
KI getriebene Entscheidungen
hier entstehen können.

14:06.880 --> 14:09.700
Also das ist wichtig im Auge zu behalten.

14:10.440 --> 14:13.480
Und diese verschiedenen Typen von Risiken

14:13.480 --> 14:17.900
werden ja auch parallel
in allen Vorschriften adressiert.

14:18.320 --> 14:23.260
Zum Schluss noch zu dem RAI Act.
Wir dürfen uns die nicht vorstellen

14:23.260 --> 14:28.700
als sozusagen monolithischen Block
irgendwo in einer Wüste. Das ist ein

14:30.560 --> 14:33.060
Vorschlag, der in engem

14:33.060 --> 14:36.600
Zusammenspiel zu sehen ist mit der DSGVO,

14:36.940 --> 14:41.720
mit dem existierenden Verbraucherschutz
Recht, mit dem existierenden

14:42.020 --> 14:46.440
Antidiskriminierungsrecht, mit anderen
Produktsicherheit Gesetzgebungen.

14:47.200 --> 14:49.640
Und man kann vielleicht

14:50.340 --> 14:51.860
denen, die das geschrieben haben,

14:51.860 --> 14:55.200
auch ein bisschen vorwerfen, dass sie das
nicht klar genug gemacht haben.

14:55.700 --> 14:59.900
Man muss sagen, man versteht
diesen Artificial Intelligence Act nur,

15:00.220 --> 15:04.960
wenn man sich sehr sehr gut mit diesen
anderen Rechts Materien auskennt.

15:05.300 --> 15:06.800
Und das Zusammenspiel

15:06.800 --> 15:10.100
dieser verschiedenen Rechts Materien hätte
man vielleicht deutlicher machen können.

15:10.400 --> 15:13.940
Und da kommt jetzt eben und sie sehen das
als kleines, auch nicht ganz

15:13.940 --> 15:18.180
passendes Puzzleteil, kommt jetzt eben
das Haftungsrecht dazu.

15:18.760 --> 15:23.500
Wie weit sind wir also jetzt
bei der Haftung? Bei der Haftung

15:23.940 --> 15:30.320
war der Ausgangspunkt zunächst einmal 2017
die Vorstellung von humanoiden Robotern.

15:30.320 --> 15:35.100
Wir kennen das Sophia als neue Bürgerin
von Saudi-Arabien und so weiter.

15:35.120 --> 15:39.820
Und all das hat dann auch das EU-Parlament
2017 dazu gebracht,

15:40.100 --> 15:42.080
hier Empfehlungen auszusprechen

15:42.080 --> 15:46.140
in Richtung der Anerkennung
einer elektronischen Person.

15:46.780 --> 15:50.420
Das hat viel Aufsehen
erregt, viel Widerstand hervorzurufen.

15:50.420 --> 15:51.840
Zu Recht, wie ich meine.

15:51.840 --> 15:55.440
In meinen Augen sind
diese Diskussionen um eine E-Person

15:56.120 --> 16:00.920
weitgehend überflüssig und führen
vielleicht zu ethischen Verwirrungen.

16:01.680 --> 16:04.720
Das ist mittlerweile
weitgehend verworfen worden

16:04.720 --> 16:09.660
und ich sage in meinen Augen jedenfalls
zu Recht verworfen worden.

16:11.000 --> 16:15.320
Es hat dann zunächst die EU-Kommission
eine Expertengruppe eingesetzt

16:15.620 --> 16:18.100
zu Haftung und neuen Technologien.

16:19.220 --> 16:22.860
Ich ich hatte auch die Ehre, hier
mitzuwirken und eine der drei

16:23.240 --> 16:27.680
Berichts Verfasser zu sein, gemeinsam mit
Bernhard Koch und Piotr Machnikowski.

16:28.480 --> 16:32.840
Wir haben hier explizit noch keine
Regulierungs Vorschläge vorgelegt.

16:32.840 --> 16:36.120
Das war nicht gewünscht, sondern
wir haben hier sozusagen nur allgemeine

16:36.120 --> 16:42.180
Prinzipien formuliert, auf denen
die EU-Kommission dann aufbauen konnte.

16:44.420 --> 16:49.320
Die EU-Kommission hat dann im Februar
2020 hier tatsächlich einen Bericht

16:49.320 --> 16:54.180
zunächst vorgelegt, in diesem Bericht
aber noch vieles offen gelassen.

16:54.860 --> 16:58.300
Und wir sehen hier
vor allem zwei Richtungen

16:58.300 --> 17:03.280
auch in den EU-Institutionen
diejenigen, die dafür eintreten,

17:03.280 --> 17:07.620
doch die Produkthaftung, also
die geltende Produkthaftung Richtlinie

17:08.840 --> 17:13.880
fit zu machen für künstliche Intelligenz
und diejenigen auf der anderen Seite,

17:14.200 --> 17:18.180
die für ein eigenes KI Haftungs
System eintreten.

17:18.860 --> 17:21.180
Die Sache hat sich immer weiter verzögert.

17:22.040 --> 17:26.660
Im April 2021 hat die Kommission
zunächst spätestens

17:27.100 --> 17:30.320
Anfang 22 Entwürfe in Aussicht gestellt.

17:30.680 --> 17:34.200
Mittlerweile hat sich
dieser Zeitplan verschoben

17:34.200 --> 17:37.720
und wir werden wohl Entwürfe
erst im dritten Quartal

17:37.720 --> 17:42.420
2022 sehen oder vielleicht
sogar noch später.

17:43.400 --> 17:45.800
Vorgeprescht ist aber in der Zwischenzeit

17:46.100 --> 17:50.160
auch hier das Europäische Parlament,
das schon am 20.

17:50.300 --> 17:54.840
Oktober naturgemäß
letzten Jahres einen Verordnung

17:54.940 --> 17:59.000
Vorschlag vorgelegt hat, der jetzt
ein Jahr lang auf dem Tisch liegt.

17:59.980 --> 18:03.880
Darin hat das Europäische
Parlament differenziert

18:04.160 --> 18:06.960
zwischen KI-Systeme mit hohem Risiko,

18:07.000 --> 18:11.300
die im Anhang hier aufgezählt sein sollen
und den delegierten

18:11.300 --> 18:16.040
Rechtsakten zu spezifizieren sind
und anderen KI-Systemen.

18:16.480 --> 18:22.320
Und für diese Hoch Risiko Systeme
soll es also eine Gefährdungshaftung geben

18:22.640 --> 18:26.800
und für alle anderen KI-Systeme
eine verschärfte Verschuldenshaftung.

18:26.800 --> 18:28.480
Gefährdungshaftung

18:28.480 --> 18:33.100
für die vielen Nichtjuristen
heißt einfach, dass man haftet

18:33.100 --> 18:36.640
für jeden Schaden
im Prinzip, den man verursacht hat,

18:36.640 --> 18:40.600
ohne dass man ein Verschulden
an diesem Schaden haben muss.

18:40.600 --> 18:43.540
Also eine sehr, sehr
strenge Form der Haftung.

18:43.940 --> 18:45.280
Und wer soll hier haften?

18:45.280 --> 18:48.100
Haften soll der so genannte Operator.

18:49.020 --> 18:51.100
Wer ist das? Das ist ein Konzept,

18:51.100 --> 18:54.840
das ich im Rahmen damals
der Expertengruppe mal entwickelt hatte,

18:55.280 --> 18:59.620
wenngleich jetzt auch
vielleicht in etwas anderem Zusammenhang.

18:59.860 --> 19:02.560
Aber es ist ein Konzept,

19:02.860 --> 19:08.680
das unterscheidet zwischen einem
Frontend Operator, der hier

19:09.720 --> 19:11.520
das KI-Systeme betreibt.

19:11.520 --> 19:15.240
Wir können auch sagen Halter, aber das
kann ein Unternehmen sein, eine Bank sein.

19:15.240 --> 19:20.760
Das kann eine Behörde sein, die nutzt hier
für eigene Zwecke ein KI-Systeme.

19:21.040 --> 19:24.580
Das kann aber auch sein
ein sogenannter Backend Operator,

19:24.580 --> 19:27.720
das heißt, jemand, der laufenden Support

19:27.720 --> 19:31.640
in Form von Datenfeed, Updates, anderen

19:31.820 --> 19:37.060
digitalen Dienstleistungen hier
für so ein KI-System erbringt.

19:37.820 --> 19:42.080
Und natürlich ist dieser Backend Operator
oftmals identisch oder eng verbunden

19:42.400 --> 19:47.700
mit dem Hersteller oder Entwickler
und Betroffene am Ende.

19:47.720 --> 19:51.320
Und potentielles Opfer
einer Gefährdung ist

19:51.320 --> 19:55.940
natürlich dann jemand,
der diesem KI-System ausgesetzt ist.

19:55.940 --> 19:59.900
Und Sie sehen hier also das Parlament
sieht hier Frontend Operator

20:00.040 --> 20:05.860
und oder Backend
Operator als richtigen Haftungs Adressat.

20:06.700 --> 20:10.340
Auch hier kann ich leider aus Zeitgründen
nicht auf Details eingehen.

20:11.160 --> 20:14.800
Vielleicht nur so viel
Der Vorstoß des Parlaments

20:14.800 --> 20:17.580
ist in meinen Augen
an sich sehr zu begrüßen.

20:17.920 --> 20:21.480
Aber der Entwurf hat einfach noch
zahlreiche Schwächen.

20:21.940 --> 20:27.220
Dieser Annex mit der Hochrisiko-KI fehlt
in der Fassung vom letzten Jahr noch.

20:28.200 --> 20:32.360
Wir haben eine Situation, wo
auch Verbraucher der verschärften Haftung,

20:32.560 --> 20:35.800
jedenfalls der verschärften Verschuldenshaftung unterliegen können.

20:37.240 --> 20:40.980
Wir haben hier. Dafür
kann ich jetzt nicht näher darauf eingehen

20:40.980 --> 20:45.340
eine Haftung für immaterielle Schäden, die
aber so wie sie jetzt hier vorgeschlagen

20:45.340 --> 20:48.640
ist, leider nicht praktikabel
ist, wie ich meine.

20:49.300 --> 20:55.020
Und das Verhältnis zu einer Verschärfung
der Produkthaftung ist immer noch offen.

20:56.240 --> 20:58.500
Ich komme damit zum Schluss

20:58.500 --> 21:02.640
zum Verhältnis von KI-Haftung und KI-Kontrolle.

21:03.020 --> 21:07.460
Wie sich uns die Entwicklungen
auf europäischer Ebene derzeit darstellen.

21:08.280 --> 21:11.460
In gewisser Weise
sind ja Kontrolle und Haftung

21:12.300 --> 21:14.680
so ein bisschen kommunizierende Röhren.

21:14.680 --> 21:18.700
Kontrolle Sicherheit setzt auf Schadens
Vermeidung ex ante

21:18.940 --> 21:22.100
Haftung setzt auf Schadens,
Ausgleich ex post.

21:22.500 --> 21:28.180
In Europa haben wir immer den Fokus auf
die Kontrolle und die Sicherheit gelegt.

21:28.180 --> 21:32.260
Wir haben immer gesagt, bestimmte
Schäden müssen verhindert werden.

21:32.640 --> 21:35.940
Wir können das nicht einfach
auf den Schadensausgleich schieben.

21:36.240 --> 21:40.520
In den USA hat man das immer schon ein
wenig anders gesehen und den Fokus stärker

21:41.140 --> 21:43.860
auf den Schadens Ausgleich ex post gelegt.

21:43.900 --> 21:46.760
Also Europa immer schon ein starker

21:47.000 --> 21:49.900
Fokus auf Sicherheit ex ante.

21:51.120 --> 21:54.800
Schauen wir uns noch einmal diese Folie
an, die ich vorhin schon gezeigt habe.

21:55.080 --> 21:57.400
Physische und soziale Risiken.

21:58.260 --> 22:02.160
Und hier ist eine Beobachtung
ganz, ganz wichtig

22:02.700 --> 22:07.560
die Diskussion um die Haftung von KI.

22:07.980 --> 22:13.140
Die fokussiert sich nur
auf die physische Dimension.

22:13.360 --> 22:16.620
Und auch uns in der Expertengruppe
damals der EU-Kommission,

22:16.620 --> 22:21.600
wurde ausdrücklich gesagt
Bitte kümmert euch nicht um diese sozialen

22:21.600 --> 22:24.960
Risiken wie Diskriminierung,
Ausbeutung, Manipulation.

22:25.260 --> 22:29.680
Das sehen wir derzeit nicht
als Frage des Haftungsrechts an.

22:30.560 --> 22:32.760
Ich bin mir nicht sicher,
ob diese Entscheidung

22:33.160 --> 22:37.840
auf die Dauer aufrecht zu erhalten
ist, denn künstliche Intelligenz

22:37.840 --> 22:42.320
zeichnet sich eben gerade
durch diese sozialen Produktrisiken aus.

22:42.720 --> 22:46.440
Und ich meine, dass das Haftungsrecht
diese sozialen Risiken,

22:46.440 --> 22:50.220
die eigentlich viel KI spezifischer sind
als die physischen Risiken,

22:50.580 --> 22:52.920
nicht länger ignorieren.

22:52.920 --> 22:57.560
Allerdings sind dafür auf EU-Ebene bislang
keine tragfähigen

22:57.560 --> 22:59.220
Konzepte entwickelt worden.

22:59.220 --> 23:03.720
Natürlich in der in der Rechtswissenschaft
gibt es natürlich diese Modelle.

23:03.720 --> 23:06.900
Auch ich habe kürzlich ein ein Modell

23:06.900 --> 23:11.160
vorgestellt, aber so richtig
tragfähige Modelle muss man sagen

23:11.160 --> 23:14.960
für eine Haftung
für diese sozialen KI-Risiken, die fehlen.

23:15.660 --> 23:17.100
Ich komme damit zum Schluss.

23:18.140 --> 23:19.160
Die Bemühungen um eine

23:19.160 --> 23:24.040
Artificial Intelligence Act sind
meines Erachtens absolut zu begrüßen.

23:24.320 --> 23:28.860
Eigentlich müsste es
um algorithmische Systeme allgemein gehen,

23:28.860 --> 23:33.220
aber wir alle kennen auch
die politischen Realitäten.

23:33.740 --> 23:39.320
Man kann das derzeit nur als KI Gesetz
tatsächlich durchsetzen.

23:40.580 --> 23:45.260
Ich meine, dass die Debatten über KI,
Sicherheit und Kontrolle einerseits

23:45.260 --> 23:49.640
und über die Haftung andererseits,
die bislang getrennt geführt wurden

23:49.640 --> 23:53.880
, unbedingt zusammengeführt werden müssen,
wir müssen diese beiden

23:54.140 --> 23:58.540
wichtigen Diskussionen abstimmen,
sonst haben wir am Ende hier

23:58.540 --> 24:02.060
eine Regulierung,
die vollkommen inkohärent ist.

24:02.720 --> 24:07.020
Und leider fehlt eben
für ein fundiertes Haftungs

24:07.020 --> 24:11.580
Konzept für die sozialen Risiken derzeit
noch eine gesellschaftliche Verständigung.

24:11.580 --> 24:17.240
Auch darüber, welche Entscheidungen muss
dabei KI wir denn eigentlich akzeptieren?

24:17.500 --> 24:20.840
Und welche Entscheidung mussten wir
natürlich damit auch bei Menschen

24:20.840 --> 24:23.740
vielleicht akzeptieren oder auch nicht?

24:24.260 --> 24:29.420
Mit dieser Schlussbemerkung muss ich es
aus Zeitgründen leider bewenden lassen.

24:30.080 --> 24:35.020
Ich danke sehr für die Aufmerksamkeit
und wünsche noch

24:36.080 --> 24:38.840
gute Diskussionen
bei dieser Tagung. Vielen Dank!
