Quellen:
- Bild: www.pexels.com
- europarl.europa.eu (Englisch, PDF)
Das Europäische Parlament hat weitreichende Gesetzgebung zur Regulierung künstlicher Intelligenz verabschiedet, fast drei Jahre nachdem die Entwurfsregeln erstmals vorgeschlagen wurden. Im Dezember wurde eine Einigung über die Entwicklung von KI erreicht. Am Mittwoch stimmten die Mitglieder des Parlaments mit 523 Stimmen dafür und 46 dagegen für das KI-Gesetz. Es gab 49 Enthaltungen.
Die EU sagt, dass die Vorschriften darauf abzielen, "grundlegende Rechte, Demokratie, Rechtsstaatlichkeit und Umweltnachhaltigkeit vor Hochrisiko-KI zu schützen, während Innovation gefördert und Europa als Führer in diesem Bereich etabliert wird." Das Gesetz definiert Verpflichtungen für KI-Anwendungen basierend auf potenziellen Risiken und Auswirkungen.
Die Gesetzgebung ist noch kein Gesetz geworden. Sie unterliegt noch den Überprüfungen durch Juristen-Linguisten, während der Europäische Rat sie förmlich durchsetzen muss. Aber es ist wahrscheinlich, dass das KI-Gesetz vor Ende der Legislaturperiode in Kraft tritt, vor der nächsten Parlamentswahl Anfang Juni.
Andere Anwendungen, die verboten werden, umfassen soziale Bewertungssysteme; Emotionserkennung in Schulen und am Arbeitsplatz; und "KI, die menschliches Verhalten manipuliert oder die Schwächen der Menschen ausnutzt." Einige Aspekte der prädiktiven Polizeiarbeit werden verboten, d.h. wenn sie ausschließlich auf der Bewertung von Merkmalen einer Person basieren (wie das Erschließen ihrer sexuellen Orientierung oder politischen Meinungen) oder auf Profiling. Obwohl das KI-Gesetz weitgehend den Einsatz biometrischer Identifikationssysteme durch Strafverfolgungsbehörden verbietet, wird dies unter bestimmten Umständen mit vorheriger Genehmigung erlaubt sein, wie zum Beispiel zur Suche nach einer vermissten Person oder zur Verhinderung eines Terroranschlags.
Anwendungen, die als hochriskant eingestuft werden – einschließlich des Einsatzes von KI in Strafverfolgung und Gesundheitswesen – unterliegen bestimmten Bedingungen. Sie dürfen nicht diskriminieren und müssen Datenschutzregeln einhalten. Entwickler müssen auch nachweisen, dass die Systeme für die Benutzer transparent, sicher und erklärbar sind. Was KI-Systeme betrifft, die von der EU als geringes Risiko eingestuft werden (wie Spamfilter), müssen Entwickler den Benutzern dennoch mitteilen, dass sie mit KI-generierten Inhalten interagieren.
Das Gesetz hat auch einige Regeln, wenn es um generative KI und manipulierte Medien geht. Deepfakes und alle anderen KI-generierten Bilder, Videos und Audiodateien müssen deutlich gekennzeichnet sein. KI-Modelle müssen auch das Urheberrecht respektieren. "Rechteinhaber können sich dafür entscheiden, ihre Rechte an ihren Werken oder anderen Gegenständen zu reservieren, um Text- und Datenmining zu verhindern, es sei denn, dies geschieht zu wissenschaftlichen Forschungszwecken", heißt es im Text des KI-Gesetzes. "Wenn das Recht auf Opt-out in angemessener Weise ausdrücklich vorbehalten wurde, müssen Anbieter von allgemeinen KI-Modellen eine Genehmigung von den Rechteinhabern einholen, wenn sie Text- und Datenmining über solche Werke durchführen wollen." Allerdings sind KI-Modelle, die rein für Forschung, Entwicklung und Prototyping gebaut wurden, davon ausgenommen.
Die leistungsfähigsten Allzweck- und generativen KI-Modelle (jene, die mit einer Gesamtrechenleistung von mehr als 10^25 FLOPs trainiert wurden) gelten gemäß den Regeln als systemisch riskant. Die Schwelle kann sich im Laufe der Zeit ändern, aber es wird angenommen, dass OpenAIs GPT-4 und DeepMinds Gemini in diese Kategorie fallen.
Anbieter solcher Modelle müssen Risiken bewerten und mindern, schwere Vorfälle melden, Details zum Energieverbrauch ihrer Systeme bereitstellen, sicherstellen, dass sie den Cybersicherheitsstandards entsprechen und Tests sowie Modellbewertungen auf dem neuesten Stand der Technik durchführen.
Der Act klassifiziert KI-Systeme basierend auf dem Risiko, das sie darstellen könnten, in vier Kategorien: unannehmbares Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. Systeme mit unannehmbarem Risiko sind verboten, während für Systeme mit hohem Risiko strenge Anforderungen gelten. Systeme mit begrenztem oder minimalem Risiko unterliegen weniger strengen Vorschriften.
Wie bei anderen EU-Vorschriften, die sich gegen die Tech-Branche richten, können die Strafen für Verstöße gegen die Bestimmungen des KI-Gesetzes hoch sein. Unternehmen, die gegen die Regeln verstoßen, können mit Geldstrafen von bis zu 35 Millionen Euro oder bis zu sieben Prozent ihres weltweiten Jahresumsatzes belegt werden, je nachdem, welcher Betrag höher ist.
Das KI-Gesetz gilt für jedes Modell, das in der EU betrieben wird, so dass auch in den USA ansässige KI-Anbieter diese einhalten müssen, zumindest in Europa. Sam Altman, CEO von OpenAI-Ersteller OpenAI, schlug letzten Mai vor, dass sein Unternehmen sich aus Europa zurückziehen könnte, sollte das KI-Gesetz Gesetz werden, sagte aber später, dass das Unternehmen keine Pläne dazu habe.
Um das Gesetz durchzusetzen, wird jedes Mitgliedsland eine eigene KI-Aufsichtsbehörde einrichten und die Europäische Kommission wird ein KI-Büro gründen. Dieses wird Methoden zur Bewertung von Modellen entwickeln und Risiken in allgemeinen Modellen überwachen. Anbieter von allgemeinen Modellen, die als systemisch riskant eingestuft werden, werden aufgefordert, mit dem Büro zusammenzuarbeiten, um Verhaltenskodizes zu erstellen.