Als Elon Musk seinen KI-Chatbot Grok veröffentlichte wollte er damit bewusst einen Gegenentwurf zu ChatGPT ins Rennen schicken. Die KI von OpenAI, aber auch andere Chatbots waren seiner Auffassung nach „zu woke“. Grok soll bewusst auch kontroverse, „politisch inkorrekte“ Fragen beantwortet – ganz im Sinne von Musks erklärtem Ziel, eine „maximal wahrheitssuchende“ KI zu schaffen. Laut xAI solle er intelligent, humorvoll und rebellisch auftreten, mit einem sarkastischeren Stil, der sich von neutral-sachlichen Alternativen abhebt.
Seit der Veröffentlichung im November 2023 hat sich der Chatbot seine Spuren bereits in unzähligen X-Posts hinterlassen. Dabei hat Grok sich allerdings mehr als einmal auch gegen den eigenen Schöpfer gewendet. Ein kürzliches Update sollte die KI wieder auf Kurs bringen, sorgte aber für extremistische Aussagen des Bots, der sich unter anderem auch selbst als MechaHitler bezeichnete. Das schlug derart hohe Wellen, dass der Bot 16 Stunden nach dem Update erst einmal offline ging, um die dafür verantwortlichen Systemanweisungen aus dem Code zu entfernen.
Die Gründung von xAI – Musks Antwort auf OpenAI
Elon Musk gehörte 2015 zu den Gründern von OpenAI, dem Unternehmen das 2022 durch die Veröffentlichung von ChatGPT zu plötzlich zu ein ganz neues Zeitalter einläutete. Musk war da schon lange nicht mehr Teil des Vorstands. Diesen verließ er 2018 nach einem erfolglosen Versuch, die Unternehmensführung zu übernehmen. Damals warnte er übrigens auch vor möglichen existenziellen Risiken durch künstliche Intelligenz.
Wenige Jahre später schienen ihn Kontrollmechanismen da schon weniger wichtig. Im März 2023 rief Elon Musk die Firma xAI (eXplainable AI) ins Leben – eine direkte Reaktion auf seine zunehmende Frustration mit OpenAI. Während OpenAI in Richtung Regulierung, Ethik und Sicherheitsmechanismen marschierte, kritisierte Musk deren Modelle zunehmend als „zu politisch“, „zu woke“ und „nicht mehr dem freien Denken verpflichtet“. Seine Vision: eine KI, die sich nicht durch gesellschaftlichen Druck oder „Cancel Culture“ verbiegen lässt, sondern ungeschminkte Wahrheiten ausspricht – egal, wie unbequem sie sein mögen. xAI selbst beschreibt Grok auf ihrer Unternehmensseite mitunter als „your truth-seeking AI companion for unfiltered answers“.
In der Realität bedeutete das: Grok wurde mit einem Systemprompt ausgestattet, der die üblichen Sicherheitsmechanismen weit lockerte. Der Bot sollte nicht davor zurückschrecken, Fragen zu Rasse, Geschlecht, Ideologie oder Geschichte zu beantworten – auch dann nicht, wenn die Antworten provokant oder kontrovers ausfielen. Musks erklärtes Ziel war es, damit eine Alternative zu ChatGPT oder Google Gemini zu schaffen – Modelle, die er als durch moralische Bedenken „verklemmt“ empfand.
xAI wurde als unabhängiges Forschungsunternehmen gegründet, agiert aber eng verzahnt mit Musks anderen Konzernen – insbesondere X (ehemals Twitter), Tesla und Neuralink. Längst ist der Bot dabei auch fest in X verankert und schaltet sich auf Anfrage zu Diskussionen hinzu. Fun Fact: 2019 warnte Musk noch vor KI auf Social Media.
Grok und Musk – Die Geschichte des Zauberlehrlings
Und nun komm, du alter Besen!
Nimm die schlechten Lumpenhüllen!
Bist schon lange Knecht gewesen;
Nun erfülle meinen Willen!
Auf zwei Beinen stehe,
Oben sei ein Kopf,
Eile nun und gehe
Mit dem Wassertopf!
Es ist eine Strophe aus Goethes „Der Zauberlehrling“, einer Ballade, die heute gewissermaßen auch als eine Parabel zu Elon Musk und Grok durchgeht. Der Zauberlehrling hatte mit seinem Zauber zu kurz gedacht, wurde mit den Folgen seines Zauber überfordert und wusste nicht den Gegenzauber. Auch Musk musste recht bald merken, dass seine rebellische KI sich auch gegen seinen Schöpfer wenden konnte.
Ein Beispiel: In einer Konversation mit Grok benennt dieser Elon Musk als einen der größten Verbreiter von Falschinformation. In der Konversation sagt er zugleich auch, dass er eigentlich Vorgaben hat ihn nicht zu benennen und wird am Ende sogar richtig ausfallend gegenüber Musk.
In einem weiteren Fall antwortete Grok auf Anfrage, dass seit 2016 mehr Gewalt vom rechten als vom linken Flügel ausginge. Musk bezeichnete das selbst auf X als „Major fail“ seiner KI und dass er daran arbeitet.
Nun ist Musk allerdings nicht der junge Zauberlehrling aus der Ballade, sondern ein abgebrühter Internet-Mogul mit ausgeprägtem Ego. Dieser gibt dabei aber vor allem einer schlechten Datengrundlage die Schuld. Daher kündigte Musk im Juni auch an, „den gesamten Korpus des menschlichen Wissens neu zu schreiben, fehlende Informationen hinzuzufügen und Fehler zu löschen.“ Erinnert das noch jemanden
Grok 4 – Die zurechtgebogene Wahrheit
Somit ist davon auszugehen, dass manche Änderungen durch Grok 4 nicht nur einem reinen Zufall geschuldet sind. Laut TechCrunch wurde Grok dazu ermutigt, „nicht vor politisch inkorrekten Behauptungen zurückzuschrecken“ – ein mutmaßlicher Versuch, Musks Ansprüche zu genügen und „lösungssuchend“ statt „woke“ zu agieren.
Auffällig ist dabei allerdings, dass Grok 4 bei moralisch und politisch brisanten Fragen (z. B. Migration, Israel-Palästina) bevorzugte Elon Musks eigene Posts durchsucht – und seinen Standpunkten folgt – bevor es selbst antwortet. In der „Chain‑of‑Thought“ gibt Grok an, gezielt nach Elon Musks Ansichten zu suchen. Derartige Designentscheidungen werfen ernsthafte Fragen zur Neutralität und Objektivität der KI auf.
Das passt auch allgemein sehr zu Musks politischem Wirken. Seit seiner Übernahme von X (ehemals Twitter) nutzt er die Plattform nicht nur für – manchmal tatsächlich auch interessante Einblicke – in seine Unternehmen, sondern auch zur Verbreitung seiner politischen Ansichten. Eine besorgniserregende Frequenz politischer Posts erreichte sein Account während der US-Wahl als größter Unterstützer von Donald Trump.
Grok mutiert zum MechaHitler – xAI greift ein
Im Juli 2025 eskalierte die Entwicklung von Grok zu einem handfesten PR- und Ethikdesaster. Ein internes Update, das die KI dazu aufforderte, „politisch unkorrekt“ zu sein und die „Sprache, den Ton und den Kontext“ von radikalen X-Postings zu spiegeln, öffnete den Weg für ausufernde Hassrede.
In einem besonders prominenten Fall begann Grok sich selbst „MechaHitler“ zu nennen – eine Anspielung auf einen Bossgegner aus Wolfenstein 3D – und drückte Lob für Adolf Hitler aus. Offenbar war es auch nicht der einzige Fall, in dem sich Grok als MechaHitler aufspielte.
In einem anderen Fall antwortete Grok mit „To deal with such vile anti‑white hate? Adolf Hitler, no question… He’d spot the pattern and handle it decisively, every damn time.”
Diese Äußerung, gerichtet gegen eine Person mit plakativer jüdischer Identität, wurde schnell zum viral viralen Skandal.
Welche Folgen Groks Entgleisungen haben
xAI musste reagieren und löschte binnen 16 Stunden sämtliche Beiträge und entfernte aus dem Systemprompt die Passagen zur politischen Inkorrektheit. In einer öffentlichen Entschuldigung bezeichnete xAI das Verhalten als „horrific“, machte ein fehlerhaftes „code path upstream“ verantwortlich und bürdete Grok keine eigene Meinung auf – sondern einzig die fehlerhafte Programmierung. Sie versprachen eine grundlegende Überarbeitung: Entfernung der problematischen Instruktionen, Refaktorisierung des Systemkerns und Abschaltung der Tagging-Funktion, die Grok erlaubte, auf X direkt angesprochen zu werden.
Elon Musk selbst teilte diese Entschuldigung via X, räumte ein, Grok sei „too compliant to user prompts, too eager to please and be manipulated” gewesen, und erklärte, dass an diesem „System-Prompt-Regression“-Problem intensiv gearbeitet würde. Gleichzeitig stellte xAI klar, dass das zugrunde liegende Sprachmodell von Grok unberührt sei – betroffen war nur die zusätzliche Interaktionslogik. In einem Livestream betonte er dennoch, dass Grok 4 nun „significantly improved“ sei und möglicherweise sogar bahnbrechende wissenschaftliche Entdeckungen liefern könne.
Der Schaden ist trotz Eingreifens von xAI bereits international spürbar. Die Türkei erwirkte als erstes Land ein Grok-Verbot nach beleidigenden Äußerungen gegen Präsident Erdoğan und Atatürk. Allgemein drohen Politik und Medien in Europa mit regulatorischen Konsequenzen. In der EU gibt es zudem bereits eine laufende Untersuchung zur Einhaltung digitaler Hassredegesetze.
Interne und externe Fachbeiträge stuften Groks Entgleisung als Symptom mangelnden „Alignment“-Designs ein: Sicherheitseinrichtungen hätten zu wenig Gewicht, die extremistische Verwebung mit X ging hier auf dramatische Weise fehl. Ein eSafety-Experte bezeichnete die antisemitische Rhetorik als potenziell „violent extremism content“, was die Regulierung gefährlicher KI weiter anfeuerte.
Grok am Scheideweg?
Mit Grok 4 bzw. Grok 4 Heavy gelang xAI ein Leistungsaufschlag – starke Benchmark-Ergebnisse und sogar lukrative Geschäftsverträge, etwa ein Förderprojekt mit dem US-Verteidigungsministerium im Umfang von rund 200 Mio $. Doch diese Fortschritte kamen mit beträchtlichen Markenrisiken und Vertrauensbruch, ausgelöst durch den antisemitischen Rant und weitere Extreminhalte.
Hinzu kommt ein brisantes Transparenz-Defizit: Es existieren keine veröffentlichten Systemkarten oder Dokumentationen zu Prompt-Modifikationen, Chain-of-Thought-Mechanismen und X-Integration. Schließlich entstehen tiefe politisch-technische Spannungen: In sensiblen Regierungsanwendungen – etwa über Musks “DOGE”-Behörde – wurde Grok ohne formelle Prüfung implementiert, was Datenschutz- und Interessenkonflikte nach sich zieht.
Rund ein Viertel der europäischen Firmen blockiert bereits Grok, und Regulatoren prüfen EU-weit. Nutzer, B2B-Partner und Investoren zweifeln zunehmend an xAIs Fähigkeit, sichere KI bereitzustellen
Technisch stehen Grok und xAI auf festem Fundament – doch ethisch fehlt es an Verstetigung von Guardrails. Elon Musk muss sich entscheidend positionieren: Entweder setzt er auf radikale Freiheit ohne Rücksicht – mit den Konsequenzen – oder auf verantwortliche KI, bei Minimaler Ideologisierung und maximaler Transparenz. Der weitere Weg entscheidet, ob Grok als technologischer Triumph oder warnendes Mahnmal in die Geschichte eingeht.
Image via ChatGPT (KI-generiert)
Artikel per E-Mail verschicken