Der AI Act – eine Regulierung von Künstlicher Intelligenz durch die Europäische Union – steht kurz bevor. Eine Studie der Universität Stanford zeigt nun jedoch: Alle großen Sprach-KIs würden nach heutigem Stand an der geplanten Regulierung scheitern.

Mitte Juni hat das Europaparlament einen ersten Entwurf für den AI Act verabschiedet. Brüssel will damit die Missbrauchsrisiken von Chat GPT & Co. minimieren und auch einer unkontrollierten Nutzung von KI-Programmen einen Riegel vorschieben.

Wie die WirtschaftsWoche berichtet, könnte das für die Sprach-KIs zu einer großen Hürde werden. So hat die kalifornische Universität Stanford zehn KI-Modelle anhand von zwölf Erfordernissen der neuen EU-Regeln getestet. Das Ergebnis: Sechs der zehn KIs erzielten weniger als die Hälfte der Höchstpunktzahl. Darunter laut WirtschaftsWoche auch GPT-4 von OpenAI, PaLM 2 von Google sowie LLaMa von Facebook, aber auch das Modell Luminous des deutschen Start-ups Aleph Alpha.

So sei ein Knackpunkt der Umgang mit urheberrechtlich geschützten Daten. Vermutlich werden zahlreiche solcher Daten genutzt, um die Programme zu trainieren – ohne dass das transparent gemacht wird. Ebenfalls unklar ist oft der Energieverbrauch. Hier fordert der AI Act aber explizit Informationen über die Energienutzung.

Für einige Vertreter der europäischen Wirtschaft gehen die Regulierungen der EU zu weit. Sie befürchten, dass durch den AI Act die Wettbewerbsfähigkeit und technologische Souveränität der EU gefährdet werden. Vor allem Entwickler von generativer KI, wären „mit unverhältnismäßigen Compliance-Kosten und unverhältnismäßigen Haftungsrisiken konfrontiert“, heißt es in einem Brandbrief von 150 prominenten Unternehmern.

Sie fordern vor allem zwei Änderungen am neuen Gesetz: die Einführung eines „transatlantischen Rahmens“, der einen fairen Wettbewerb zwischen Europa und den USA gewährleisten soll sowie flexiblere Regeln, die an das rasante Tempo der Entwicklung angepasst werden können.