KEINE GUTE GESCHICHTE

Bekanntlich geht Sam Altman, Chef des Chat-GPT-Entwicklers Open AI, davon aus, dass es künftig mehr von künstlicher Intelligenz als von Menschen erstellte Inhalte gibt. Das Thema dominierte das diesjährige WEF. Selbst von der Blockchain und dem Metaversum, den beiden letzten Tech-Hypes, redete niemand. Allerdings ist es in den Augen vieler Experten unmöglich, die jetzige Generation an KI-Modellen sicher und verlässlich zu machen. Anbieter sprechen daher vermehrt von spezialisierten Systemen, die je nach Einsatzbereich transparent machen, was die Quellen für ihre Vorschläge sind. Auch Sam Altman verschliesst sich der Gefahren nicht ganz. Die heutigen Modelle seien limitiert und hätten Schwächen, gibt er zu bedenken, doch lernten sie schnell dazu. «Es wäre dumm, die Gefahren nicht zu sehen. Die Entwicklung kann auch schiefgehen», sagte Altman bei einer Veranstaltung des Chip-Riesen Intel. Je näher die Welt der Entwicklung einer Superintelligenz komme, desto grösser würden die Hektik und der Stress. Gleichzeitig beschwichtigte Altman. Man habe genügend Zeit, die Weichen richtig zu stellen. Dabei versucht er die Branche selbst in die Pflicht zu nehmen, indem er fordert, sie müsse transparent machen, welche Werte die Modelle hätten, welche Sicherheiten eingebaut seien und welches Mass an globaler Koordination es brauche. Er scheint in einem Dilemma gefangen: Zwar spricht er offen über die Risiken von KI, aber die Kontrolle aus der Hand geben will er nicht. Ein Zauberlehrling, der den Geist aus der Flasche gelassen hat und dem sein Werk nicht ganz geheuer zu sein scheint. – Die Frage, wie die Technologie reguliert werden soll, damit sie mehr nützt als schadet, lässt er also offen. Die Debatte um Regulierung ist voller Widersprüche.

Hierzu passt der Versuch des EU-Parlaments, die Regeln für Künstliche Intelligenz zu verschärfen. Gemäss der Online-Ausgabe der NZZ gab das Parlament in Strassburg am Mittwoch, den 13. März 2024, grünes Licht für die Implementierung schärferer Regeln in Sachen Künstliche Intelligenz (KI). Die Parlamentarier stimmten mehrheitlich für die weltweit erste umfassende Regulierung von künstlicher Intelligenz. Das neue Regelwerk will die KI-Systeme künftig in verschiedene Risikogruppen einteilen. Je höher die potenziellen Gefahren einer Anwendung sind, desto höher sollen auch die Anforderungen sein. Bestimmte KI-Anwendungen, die gegen EU-Werte verstossen, werden ganz verboten. Hierzu gehört die Bewertung von sozialem Verhalten, das sogenannte «Social Scoring», das in China angewendet wird. Auch eine Emotionserkennung bei Anstellungen am Arbeitsplatz sowie in Bildungseinrichtungen soll es in der EU nicht geben. Nicht erlaubt ist ausserdem die Gesichtserkennung im öffentlichen Raum durch Videoüberwachung. Lediglich die Polizei und andere Sicherheitsbehörden dürfen diese nutzen, um Straftaten wie Menschenhandel oder Terrorismus zu verfolgen. Für die EU-Mitgliedsstaaten bedeutet dies, dass sie zunächst schrittweise verbotene Systeme ausser Betrieb nehmen müssen. Nach zwei Jahren sollen dann alle Punkte des Gesetzes, auch AI-Act genannt, innerhalb des EU-Raums vollständig umgesetzt sein.

Für viele ist das neue KI-Gesetz der EU bereits jetzt ein Regulierungsmonster, im Prinzip zwar gut gemeint, aber in der Praxis sehr komplex und kostspielig. Vor allem wird kritisiert, dass der AI-Act lediglich penibel regelt, wie man ihn einführt, anstatt vor einem Hightech-Überwachungsstaat zu schützen. Nicht auszuschliessen, dass das Regulierungsmonster die gesellschaftlichen und politischen Probleme Europas offensichtlich macht. Die USA wollen die beste KI der Welt, China will die effizienteste KI der Welt, Europa will die regulierteste KI der Welt, und zwar als Erster! Wie gehabt und alles ganz im Sinne von Hans Magnus Enzensbergers Essay «Sanftes Monster Brüssel oder Die Entmündigung Europas».

Christoph Frei, Akademisches Lektorat, CH-8032 Zürich

Bild:
#Artificial Intelligence Act (AIA)

Hans Magnus Enzensberger in einem Interview über die Europäische Union