EU: Wie gut wird das weltweit erste KI-Gesetz?
Unterhändler von EU-Parlament und Mitgliedsstaaten haben sich auf die Kernpunkte des seit 2021 geplanten AI Act geeinigt. Das Gesetz soll Transparenz garantieren, wo künstliche Intelligenz verwendet wurde, eine hohe Qualität der bei der Entwicklung verwendeten Daten sicherstellen und Urheberrechte schützen. Bei datenschutz- oder sicherheitsrelevanten Anwendungen wird ein menschenkontrolliertes Risikomanagement Pflicht.
Wichtiger und verlässlicher Rahmen
Dieser Rechtsakt ist endlich mal kein Innovationskiller aus Brüssel, freut sich das Handelsblatt:
„Klar, mit der Verordnung kommen Auflagen auf alle Unternehmen zu, die KI-Basismodelle entwickeln wollen. Wer mit Unmengen an Daten Modelle trainiert, die Texte, Bilder, Videos und Programmiercode verarbeiten und generieren können, muss transparent machen, wie er dabei vorgeht. Aber das ist doch eine Forderung, die zumindest Unternehmenskunden ohnehin stellen sollten. .... Die EU hat einen verlässlichen Rahmen für den Einsatz von KI geschaffen – jetzt muss sie in die Entwicklung und die Infrastruktur investieren. Auf dem Weg zu einer technologischen Souveränität ist dies entscheidend.“
Richtige Richtung, gewichtige Ausnahmen
Auch Irish Examiner begrüßt den Beschluss:
„Mit der am Wochenende erzielten Einigung setzt das Europäische Parlament ein Verbot der Echtzeitüberwachung und biometrischer Erkennungstechnologien wie der Emotionserkennung durch. Es wird allerdings drei Ausnahmen geben: Die Polizei darf diese übergriffigen Systeme bei einer akuten Bedrohung durch einen Terroranschlag, bei der Suche nach Opfern [etwa von Entführungen] und bei der Verfolgung schwerer Verbrechen benutzen. ... Der vor uns liegende digitale Weg wird lang und schwierig sein, aber die Europäer sind jetzt die ersten Schritte auf diesem Weg gegangen.“
Haftungsproblematik bleibt ungelöst
Auf einige entscheidende Fragen hat der AI Act keine Antwort, kommentiert Kapital:
„Zum Beispiel die Frage, wer für Schäden, die durch KI verursacht werden, verantwortlich ist. Wenn ein autonomes Auto einen Unfall hat, wer kommt dann für den Schaden auf? Der Eigentümer, der Hersteller oder der Software-Entwickler? Wenn der Hersteller vollständig von der Haftung befreit ist, hat er keinen Anreiz, ein gutes Produkt oder eine gute Dienstleistung anzubieten, was das Vertrauen in die Technologie schwächen könnte.“
Weltmeister beim Rechtsschutz, schwach auf dem Markt
Leider ist die EU anderswo nicht so stark wie beim Regulieren, wirft La Stampa ein:
„Bisher hat Europa zwar immer den Wettkampf um die Regeln zum Schutz der Bürger gewonnen, doch den um den Markt immer verloren. Die Giganten des Internets sind fast alle Amerikaner. ... Bei der künstlichen Intelligenz hat sich das Drehbuch nicht geändert. Die USA und China führen das Spiel an, Europa hinkt hinterher. Eklatant ist der Rückstand an der Mikrochip-Front, also bei den für die künstliche Intelligenz erforderlichen Prozessoren. Der vor einigen Monaten verabschiedete European Chips Act soll dazu dienen, die Lücke zu schließen, indem wir unsere Produktion bis 2030 verdoppeln. Doch bis dahin ist es ein langer Weg.“
Mehr Pädagogik, weniger Restriktionen
El País findet Regulierung gut, aber nicht genug:
„Künstliche Intelligenz hat vor allem in Fällen abwegiger Verwendung für Aufruhr gesorgt, bei Falschmeldungen oder gefälschten Nacktbildern. ... Aufklärung würde da zur Lösung des Problems mehr beitragen als ein Gesetz, das den technischen Fortschritt einschränkt. Die künstliche Intelligenz für alles verantwortlich zu machen, ist eine ausweichende Haltung. Und die Plage der Desinformation wird nicht verschwinden, egal, wie viele Cyber-Vorschriften Europa erlässt. ... Bei Wissenschaft und Technologie ist der Gesetzgeber dazu verdammt, den Entwicklungen hinterherzulaufen.“