Zum Hauptinhalt springen

Gesellschaftliche Risiken von KI ernst nehmen!

Rede von Sonja Lemke,

Sehr geehrte Zuhörende! Frau Präsidentin! Wir reden heute über die KI-Verordnung. Sie ist ein wichtiger Schritt, um die enormen gesellschaftlichen Auswirkungen von KI-Systemen abzumildern. Aber während wir darüber sprechen, wie wir die KI-Verordnung am besten umsetzen, setzt die Bundesregierung sich auf EU-Ebene dafür ein, dass das Inkrafttreten einer Regulierung von Hochrisiko-KIs nach hinten verschoben wird. Hochrisiko-KIs sind zum Beispiel Anwendungen, die in den Sicherheitsbehörden, bei Grenzkontrollen oder in der Medizin eingesetzt werden. Das sind alles Anwendungen, bei denen direkt eine Gefahr für Menschenleben besteht.

Für die Bundesregierung ist eine Verspätung ja auch sehr praktisch. Denn während dieser Teil der KI-Verordnung auf sich warten lässt, hat man in Ruhe Zeit, auf allen Ebenen weiter Hochrisikosysteme einzuführen, wie zum Beispiel die Fascho-Software Palantir: eine Software, die bei den ICE-Deportationen eingesetzt wird und deren CEO gerade erst verkündete, dass er es ja begrüßt, dass der Einsatz von KI besonders gebildeten und vorwiegend weiblichen Personen schadet. Dass überhaupt darüber nachgedacht wird, eine solche Software anzuschaffen, und dass einige Bundesländer wie NRW sie bereits einsetzen, das ist wirklich ein Skandal!

(Beifall bei der Linken)

Das Problem ist nicht allein die Firma Palantir. Das Problem ist die Totalüberwachung, die dahintersteckt, das Anlegen und Auswerten von Datenbanken und der Generalverdacht, der damit einhergeht. Die KI-Verordnung schützt nicht hinreichend vor Überwachung. Ein Problem ist, dass die biometrische Fernidentifizierung in Echtzeit zwar verboten ist, im Nachhinein aber legal. Da muss dringend nachgeschärft werden. Deshalb haben wir einen Antrag vorgelegt, der genau diese Ausnahme nicht zulässt.

(Beifall bei der Linken)

Aber die KI-Verordnung reicht auch in anderen Bereichen nicht aus. Daher legen wir heute auch noch einen zweiten Antrag dazu. Denn die KI-Verordnung bleibt zahnlos, wenn man sie nicht wirklich durchsetzen kann. Dafür braucht es mehr als eine Selbsteinschätzung oder Berichte über das Risiko. Dafür braucht es eine echte Transparenz über die Algorithmen und vor allen Dingen auch über die verwendeten Trainingsdaten. Nur so können wir sicherstellen, dass KI-Systeme gesellschaftliche Ungleichheiten nicht weiter verschärfen. Denn wenn in den Trainingsdaten rassistische, sexistische oder ableistische Vorurteile enthalten sind, dann übernehmen die KI-Systeme sie nicht nur, sondern sie verstärken sie auch.

Und das ist wirklich keine Kleinigkeit. Wenn wir darüber reden, dass wir KI-Systeme in der Entscheidungsfindung einsetzen, beispielsweise in der Sozialverwaltung, dann werden dort systematisch Menschen benachteiligt, und das sind genau die, die es eh schon am schwersten haben. Und sie haben auch am wenigsten Ressourcen, sich gegen diese Entscheidungen zur Wehr zu setzen. Aber damit lernt der KI-Algorithmus ja genau, dass man diese Menschen weiter benachteiligen kann.

Wir haben da ein sehr grundsätzliches Problem. KI-Systeme sind statistische Verfahren. Es ist nicht möglich, zu sagen, was der Grund ist, wieso sie einmal so entscheiden und einmal so. Aber wenn das die Handlungen des Staates leitet, dann geht das gegen unsere Demokratie. Denn wir haben einen Anspruch darauf, dass der Staat uns gegenüber nicht willkürlich handelt. Vor diesen Problemen können wir doch nicht einfach die Augen verschließen. Da müssen wir jetzt wirklich eingreifen!

(Beifall bei der Linken)

Transparenz brauchen wir auch, damit endlich sichtbar wird, wie viel Arbeit sich durch KI-Systeme angeeignet wird. Wenn wir über die Vergesellschaftung von Wohnraum reden, damit sich Menschen endlich die Miete leisten können, dann bekommt die CDU ja immer direkt Schnappatmung. Aber bei KI haben Sie kein Problem damit, die größte Enteignungsmaschine der Geschichte zu fördern. Denn bei generativer KI bekommt niemand auch nur einen Cent dafür, dass deren Werke dort verarbeitet werden. KI-Unternehmen profitieren davon, dass sie sich unreguliert einfach alles aus dem Internet ziehen können.

Ohne Einwilligung und ohne Vergütung werden schon jetzt Gemälde, Fotos und Texte aller Art für das KI-Training genutzt. Künstlerinnen und Künstlern, Autorinnen und Autoren, Journalistinnen und Journalisten, die vorher schon prekär gearbeitet haben, bleiben jetzt die Aufträge weg. Das kann es doch wirklich nicht sein. Jeder, dessen Arbeit in ein KI-System eingeflossen ist, muss auch dafür vergütet werden.

(Beifall bei der Linken sowie der Abg. Awet Tesfaiesus [BÜNDNIS 90/DIE GRÜNEN])

Das betrifft auch die Tausenden von Data-Labeler/-innen, die KI-Systeme überhaupt erst ermöglichen. Es reicht eben nicht aus, sich einen Haufen Daten aus dem Internet zu ziehen. Die Daten müssen strukturiert und gelabelt werden. Und das passiert größtenteils in Kenia, wo unterbezahlte Arbeiter/-innen über zehn Stunden am Tag Daten labeln. Sie benennen die in den Aufnahmen zu sehenden Objekte oder sollen die KI-Antworten bewerten

Erst kürzlich machte zum Beispiel die Meta-Brille Schlagzeilen, weil Aufnahmen von deren Kamera bei den Daten-Labelerinnen und Daten-Labelern in Kenia landen. Dort sehen sie nackte Menschen, Sex, intime Szenen, bei denen sich niemand bewusst war, dass gerade gefilmt wird. Was da passiert, ist nicht nur ein massiver Eingriff in die Privatsphäre der Betroffenen; es ist auch belastend für die Menschen, die diese Daten labeln. Und unter diesen Umständen will die Bundesregierung auch noch im Digitalen Omnibus das KI-Training mit persönlichen Daten ohne Einwilligung der Betroffenen zulassen. Das ist doch wirklich abstrus.

(Beifall bei der Linken)

Was beim Thema KI auch nicht zu kurz kommen darf, das sind die enormen ökologischen Folgekosten. In Zeiten, in denen sich die Klimakatastrophe zuspitzt und immer mehr Menschen ihre Heimat verlassen müssen, weil sie nicht mehr bewohnbar ist, in solchen Zeiten steigt der Stromverbrauch immer weiter. Es steigen die Strompreise. Es werden Kohlekraftwerke weiter in Betrieb gelassen und Gaskraftwerke gebaut. Und das alles nur, um irgendeinen Chatbot zu trainieren oder irgendwelche dummen Bildchen zu erzeugen. Es kann doch wirklich nicht sein, dass wir einfach blind jedem Hype hinterherrennen.

Es braucht jetzt eine wirkungsvolle Regulierung, damit wir die massiven Probleme, die KI mit sich bringt, in den Griff bekommen. Deswegen ist es mit der KI-Verordnung auch nicht getan, sondern sie kann nur ein Anfang sein. Mit unseren Anträgen machen wir gute Vorschläge für die nächsten Schritte. Also: Stimmen Sie unseren Anträgen zu!

Vielen Dank.

(Beifall bei der Linken)