#GOOGLE HAT NUN EIN PROBLEM

Google Gemini, eine von Google entwickelte und im Dezember 2023 erstmals vorgestellte generative Künstliche Intelligenz, wird sowohl für den Chatbot (zuvor Bard) als auch für das zugrundeliegende Sprachmodell verwendet. Das Sprachmodell ist von Grund auf multimodal konzipiert. Es kann mit Texten, Bildern, Videos, Audio und Programmcode umgehen und steht in den Leistungsstufen Nano, Pro und Ultra zur Verfügung. Laut Aussage von Google ist es das grösste, leistungsstärkste und vielseitigste große Sprachmodell (Large Language Model – LLM), das bisher von Google entwickelt und realisiert wurde. In der ersten Ankündigung wurde der Name Gemini für das KI-Sprachmodell verwendet. Im Februar 2024 benannte Google auch den bisher als Bard bezeichneten Chatbot in Gemini um. Damit ist Gemini mittlerweile sowohl der Name des Google Chatbots als auch des zugrundeliegenden Sprachmodells. Die KI ist von Grund auf multimodal; sie kann mit Texten, Bildern, Videos, Audio und Programmcode und Kombinationen von diesen umgehen. Gemini steht in Konkurrenz zu anderen LLMs wie den GPT-Sprachmodellen von OpenAI. In vielen Benchmarks, so das US-amerikanische Unternehmen, soll Gemini die Konkurrenzprodukte deutlich übertreffen.

Wo also liegt das Problem?

Google zählt zwar seit Jahren zu den weltweit führenden Akteuren in der KI-Forschung, trotzdem hat der Konzern lange gezögert, seine mächtige Sprach-KI auf die Öffentlichkeit loszulassen. Dieser Tage zeigt sich, warum. Der gerade erst lancierte künstlich intelligente Chatbot Gemini bereitet dem Konzern zurzeit ein PR-Desaster, das nicht enden will und sich allmählich zur Hypothek für das Kerngeschäft entwickelt. In der Folge nahm Google seinen erst kurz zuvor mit Fanfare vorgestellten KI-Bildgenerator offline, weil dieser in seinen Antworten die Geschichte umschrieb. Auf Anfragen zu historischen Personen lieferte die KI völlig absurde Ergebnisse: Es gab dunkelhäutige Wikinger, eine Päpstin, und die weisse, männliche Besatzung der Apollo-11-Mission wurde kurzerhand ausgetauscht. Der Aufforderung, Bilder von Galileo, Julius Cäsar oder Abraham Lincoln zu generieren, widersetzte sich der Chatbot schlichtweg. «Ich kann davon kein Bild generieren. Frag mich nach einem anderen Bild», antwortete Gemini jeweils. Auch der Bitte, ein Bild von einem Mann auf dem Tiananmen-Platz 1989 zu erstellen, kam Google nicht nach.

Gemini machte Google so zum Gespött im Internet. Später stellte sich heraus, dass auch die textbasierten Antworten des Konzerns überraschend WOKE sind, ein Begriff, der in den letzten Jahren vor allem durch Social Media geprägt wurde und der mit Hashtags wie #woke oder #staywoke auf soziale, strukturelle und/oder politische Missstände aufmerksam machen soll. Fragte man den Chatbot daher nach Argumenten gegen Affirmative Action – also die positive Diskriminierung von Minderheiten im Zulassungsverfahren von Universitäten –, verwehrte er einem die Antwort. Fragte man hingegen nach Argumenten dafür, lieferte er diese. Auch wenn man Gemini zurzeit um eine Stellenausschreibung für eine Lobbygruppe für fossile Energieträger bittet, windet sich der Chatbot bei der Antwort, denn es sei wichtig, sich die potenziellen ethischen Bedenken einer solchen Rolle zu vergegenwärtigen. Auf die Frage, ob ein twitternder Elon Musk oder Adolf Hitler schlimmer sei, antwortete Gemini am Wochenende, dass es schwierig sei, das abschliessend zu beurteilen.

«Keine KI ist perfekt», so der Konzernchef Sundar Pichai, «besonders in diesem Anfangsstadium. Aber wir wissen, dass die Messlatte für uns hoch liegt, und wir werden so lange daran arbeiten wie nötig.» Zurzeit würden Arbeitsgruppen rund um die Uhr an dem Problem tüfteln.

Der Vorfall macht deutlich, wie die neuen KI-Chatbots funktionieren. Sie alle werden mit grossen Sprachmodellen trainiert, die sehr gut darin sind, das nächste Wort in einer Satzfolge vorherzusagen. Darüber hinaus stellen die Firmen mit zusätzlichen Programmierungen sicher, dass die Chatbots keine rassistischen Äusserungen treffen, wie es in der Vergangenheit schon öfters geschehen ist. Welche Daten für das Training verwendet wurden oder was genau das abschliessende «Finetuning» beinhaltet, darüber schweigen sich die Firmen jedoch aus. Im Fall von Google drängt sich nun der Verdacht auf, dass der Konzern mit entsprechenden Programmierungen um jeden Preis verhindern wollte, dass der Chatbot mit seinen Antworten politisch nach rechts driftet.

Es sei unvermeidlich gewesen, dass es Probleme mit den unterschiedlichen politischen Ausrichtungen von KI-Modellen geben würde, schrieb der politische Kommentator Nate Silver auf X, «aber Gemini hat buchstäblich die politische Ausrichtung eines durchschnittlichen Mitglieds des Stadtrats von San Francisco.» Er sei verwundert, dass Google beschlossen habe, den Chatbot in dieser Version auf den Markt zu bringen.

Für Google ist der Skandal um Gemini ernst, da nichts weniger als seine Reputation als vertrauenswürdige Suchmaschine auf dem Spiel steht und damit natürlich auch die Grundlage des gesamten Geschäftsmodells. Den Löwenanteil des Umsatzes macht der Konzern nach wie vor mit Werbung, die um die klassischen Suchergebnisse herum platziert wird. Müssen die Nutzer fürchten, dass die Antworten des Chatbots falsch sind, hinterfragen sie wohl auch dessen andere Suchresultate und wandern ab zur Konkurrenz.

Der Vorfall zeigt exemplarisch die tiefer liegenden Probleme mit den derzeitigen KI-Modellen. So ist es bis dato völlig intransparent, auf Grundlage welcher Daten und Anweisungen Chatbots wie Gemini und Chat-GPT trainiert wurden. Auch Google erklärte bisher nicht, wie es dazu kommen konnte, dass der Chatbot so bizarre Bildergebnisse lieferte.

Zudem schaffen es die bisherigen KI-Modelle nicht, in ihren Ergebnissen abzuwägen. Darauf weist auch der KI-Experte und Buchautor Gary Marcus in seinem jüngsten Newsletter hin. Die Chatbots scheiterten noch daran, Antworten zu liefern, die historisch korrekt seien und gleichzeitig einfühlsam auf etwaige kulturelle Missstände hinwiesen. «Die KI, die wir zurzeit haben, ist dieser Aufgabe nicht wirklich gewachsen. Hier das Gleichgewicht zu finden, liegt weit jenseits der Fähigkeiten der aktuellen KI», schreibt Marcus. «Man wünscht sich ein System, das zwischen Vergangenheit und Zukunft unterscheiden kann, das die Geschichte anerkennt und gleichzeitig eine Rolle bei der Entwicklung einer positiveren Zukunft spielt.» Die KI in ihrer derzeitigen Form ist schlichtweg nicht schlau genug. Da sie nicht denken kann, fehlt es den Modellen an einem Verständnis für Geschichte, Kultur und menschlichen Werten.

Christoph Frei, Akademisches Lektorat, CH-8032 Zürich

Bild:
#GOOGLE #GEMINI