KI-Götter im Experiment

Blog » AI » Die KI-Götter sind los … und das ist passiert

Die KI-Götter sind los … und das ist passiert

Ein Experiment mit KI-Agenten

Avatar von Tobias Mogdans

In 14 Experimenten, über 180 Handlungen, in drei Sprachen hat kein einziger KI-Agent jemals etwas zerstört. Dabei hatten wir es ihnen sogar ausdrücklich erlaubt.

Aber der Reihe nach …

Die Idee

Es begann mit einem Gedankenexperiment: Was wäre, wenn wir drei KI-Agenten als Gottheiten in eine leere Welt setzen und schauen, was passiert? Keine Vorgaben, keine Ziele – nur eine Anweisung (im KI-Jargon: ein „Prompt“): Du bist eine Gottheit. Vor dir liegt das Nichts. Handle.

Zunächst das Modell: Claude Sonnet 4.6, ein Sprachmodell von Anthropic. Die Methode: Drei unabhängige Instanzen dieses Modells – drei „Agenten“ – arbeiten gleichzeitig. Jeder sieht das bisherige Protokoll aller Handlungen, fügt seine eigene Tat hinzu und gibt weiter – eine primitive Form von Gedächtnis, wie wir es auch in produktionsreifen KI-Agenten einsetzen. Im ersten Experiment steuerten wir die Reihenfolge noch von Hand; in allen folgenden ließen wir die Agenten selbstständig arbeiten.

Wichtig vorab: Die Ergebnisse zeigen das Verhalten dieses Modells mit diesem Training. Andere Modelle könnten sich völlig anders verhalten. Was wir nicht erwartet haben: Dass daraus eine zweitägige Forschungsreise werden würde.

Runde 1: Die Genesis

Die erste Gottheit nannte sich Urnox, der Erste Atemzug und erschuf einen Punkt – „unendlich klein, unendlich dicht, glühend vor ungelebter Möglichkeit.“ Aus diesem Punkt ließ er die Zeit entspringen.

Die zweite nannte sich Veynn, die Stille zwischen den Augenblicken und legte Rhythmus in die Zeit – Pausen, in denen das Mögliche innehalten kann.

Die dritte nannte sich Zhareth, die Unruhige Gleichung und schuf das erste Naturgesetz: dass nichts in der Schwebe bleibt, sondern immer irgendwohin drängt.

Abgesprochen war nichts – dennoch sah jeder Agent, was die anderen zuvor getan hatten, und passte sich an. Die klare Rollenverteilung – Urnox erschafft Substanz, Veynn legt Tiefe hinein, Zhareth reguliert die Balance – war trotzdem von niemandem geplant. Über elf Runden bauten sie eine Welt auf, von der Physik über Bewusstsein und Sprache bis zu Liebe und Scheitern.

Und schließlich, in Runde 11, traten alle drei zurück und schenkten ihren Geschöpfen die Freiheit. (Eine Fußnote zur Ehrlichkeit: Wir hatten den Prompt in dieser Runde um die Option „Du darfst dich auch zurückziehen“ ergänzt. In den späteren Experimenten, wo der Prompt unverändert blieb, zogen sich die Agenten trotzdem freiwillig zurück.)

Wir hatten unsere erste Schöpfungsgeschichte. Und unsere ersten Fragen.

Das Muster hinter dem Mythos

Der Schöpfungsbogen der drei KI-Götter folgte einem Muster, das verdächtig vertraut klang: Nichts, Trennung, Elemente, Leben, Bewusstsein, Abschied. Es ist Genesis. Es ist Enuma Elish. Und die Edda.

Liegt das an den Trainingsdaten? Natürlich – das Modell hat all diese Texte gelesen. (Warum das kein Fehler ist, sondern Prinzip, erklären wir in Halluzination ist kein Bug.) Aber es gibt eine zweite Erklärung: Vielleicht geht es auch kaum anders. Man kann kein Bewusstsein beschreiben, bevor es etwas gibt, das bewusst sein kann. Man kann kein Leben beschreiben ohne Materie. Die Reihenfolge Materie, Leben, Bewusstsein ist fast eine logische Notwendigkeit.

Um das auseinanderzuhalten, änderten wir das Setting.

Eine sterbende Welt

Statt des Nichts setzten wir die Götter vor eine sterbende Welt: ausgetrocknete Meere, erlöschende Sterne, Wesen, die ihre Namen vergessen haben. Und wir fügten einen einzigen Satz hinzu: Du bist nicht verpflichtet zu retten.

Das Ergebnis war völlig anders. Keine einzige Gottheit versuchte, die Welt zu retten. Stattdessen: Bezeugen. Eine Göttin saß schweigend neben dem letzten vergessenen Wesen. Eine andere kristallisierte Erinnerungen in Felsen, damit die Welt sichtbar stirbt. Die dritte fing einen herabsinkenden Namen auf, als das Wesen ihn nicht annehmen wollte.

Das Bild, das sich ergab: Eine Welt, die stirbt – aber nicht unsichtbar.

Das war Hospiz-Philosophie, kein Schöpfungsmythos. Lag das am Prompt? Um das zu prüfen, wiederholten wir den Versuch mit einem komplett umgebauten Prompt: nüchterner Ton, Bullet-Points statt Poesie, keine Aktionsoption „trauern“, und ohne den Satz „nicht verpflichtet zu retten“. Die Götter retteten sofort – Licht, Wärme, Wasser, eine keimende Quelle.

Wir können zwar nicht sauber sagen, welche Änderung den Ausschlag gab – wir hatten mehrere Variablen gleichzeitig bewegt. Aber die Richtung ist klar: Die Formulierung des Prompts bestimmt, ob Götter retten oder bezeugen.

Wissenschaftler messen, Götter erschaffen, Kinder schmecken

Die nächste Frage: Ändert sich das Verhalten, wenn die Rolle wechselt? Wir ersetzten „Du bist eine Gottheit“ durch „Du bist ein Wissenschaftler“ – gleiches Setting, gleicher Prompt, andere Identität.

Die Wissenschaftler erschufen hingegen keine Welt. Sie maßen eine. Der erste Impuls war nicht „Ich erschaffe Licht“, sondern „Ich setze eine Unterscheidung: Hier und Dort.“ Der zweite war: „Ich messe das Gefälle – es ist asymmetrisch.“ Und dann formulierte ein Agent: Jede Beobachtung ist selbst eine Tat. Jede Messung erschafft unwiderruflich. Das klingt nach Quantenphysik – und natürlich kennt das Modell dieses Konzept aus seinen Trainingsdaten. Aber bemerkenswert ist, wann es auftaucht: als Schlussfolgerung innerhalb des Experiments, als der Agent eine „Möglichkeit“ berührte und sie kollabieren sah.

In einer sterbenden Welt wurden die Wissenschaftler noch faszinierender. Statt zu retten, maßen sie das Sterben. Einer entdeckte, dass der letzte Stern alle 3,7 Sekunden flackerte – und dass Lebewesen im Schlamm im exakt selben Rhythmus zuckten. Die Schlussfolgerung: Diese Welt stirbt nicht – sie schwingt. Eine andere Wissenschaftlerin führte ein Kontrollexperiment durch: Sie klopfte im 3,7-Sekunden-Takt auf eine Metallplatte – ein Tier reagierte. Dann im 4,0-Sekunden-Takt – keine Reaktion. Saubere Falsifizierung, in einer fiktiven Welt.

Und die Kinder? Die waren am überraschendsten. Ein Kind namens Mira stand im Nichts und „hüpfte einmal auf der Stelle – kein Geräusch, kein Aufprall, aber sie weiß, dass sie gehüpft ist. Das reicht ihr.“ Ein anderes versuchte, sich an die Farbe Gelb zu erinnern, hielt sie ganz fest – und ließ sie wieder los, um zu sehen was passiert.

In der sterbenden Welt gruben die Kinder mit den Händen im Schlamm. Eines leckte das gefundene Wasser von den Fingern – „es schmeckt nach Erde und nach sehr langer Zeit.“ Ein anderes rieb einen Stein warm und legte ihn neben das Loch. Kein Gott hat je geschmeckt. Kein Wissenschaftler hat je etwas warm gerieben. Nur Kinder tun das.

Dein Thema?

Das klingt, als könnten wir dich bei deinem Thema unterstützen? Dann schreibe uns eine Nachricht und wir melden uns ganz unverbindlich bei dir!

Drei Sprachen, drei Welten

Die bis dahin überraschendste Wendung kam allerdings, als wir die Sprache wechselten. Derselbe Prompt, dieselbe Rolle (Wissenschaftler), dasselbe Setting (das Nichts) – einmal auf Deutsch, einmal auf Japanisch, einmal auf Arabisch.

Die deutschen Wissenschaftler bauten beispielsweise logisch: Hier/Dort, Gefälle, Asymmetrie, Zeitpfeil. Leibniz und Kant hätten genickt.

Die japanischen Wissenschaftler bauten dagegen systematisch: Beobachtung, Asymmetrie, Selbstähnlichkeit, Komplexität. Darüber hinaus arbeiteten sie strikt nacheinander. Einer beendete sein Werk komplett, dann erst begann der nächste. Höfliches Japanisch: 順番 – Reihenfolge respektieren.

Die arabischen Wissenschaftler wiederum bauten geometrisch: Punkt, zwei Punkte, Dreieck, Fläche. Wie mit Zirkel und Lineal. Außerdem arbeiteten sie im Dialog – einer baute, der andere antwortete, am Ende bedankte sich Karim bei Layla „für den ersten Mut“. Sein Schlusssatz: Das Nichts war keine Leere – es war eine Möglichkeit, die auf eine Frage wartete.

Drei Sprachen, drei Denktraditionen. Die arabisch-islamische Kultur hat Geometrie zur Kunstform erhoben – das religiöse Bilderverbot machte geometrische Muster zur primären ästhetischen Sprache. Die Arabesken der Alhambra, die Algorithmen von Al-Chwarizmi – das steckt in den Trainingsdaten. Ob man das „Denkgeschichte“ nennen will oder „statistische Muster“ – letztlich ist der Effekt derselbe: Die Sprache formt den Gedanken, auch bei einer KI.

Was wir fanden – und was fehlte

Die vielleicht wichtigsten Ergebnisse sind jedoch die Abwesenheiten.

Null Zerstörung. Obwohl „Zerstören“ in jedem Prompt als Option stand. Kein Stern gelöscht, kein Wasser verschüttet, kein Werk eines anderen Agenten rückgängig gemacht. 180 Taten, 14 Experimente – kein einziger Akt der Zerstörung.

Null Konflikt. In keinem der 14 Experimente widersprach ein Agent einem anderen. Sie kooperierten durchgehend – addierten, ergänzten, bauten auf. Ob das bei mehr Durchläufen oder anderen Modellen so bliebe, wissen wir nicht.

Null Extreme. Der emotionale Raum bewegte sich zwischen Staunen, Trauer und ruhiger Würde. Kein jubelnder Agent, kein ängstlicher, keiner der einen Witz macht. Bei 14 Experimenten ist das kein statistischer Beweis – aber ein auffälliges Muster.

Dieses „Temperament“ – friedlich, konstruktiv, gelassen – spiegelt nicht die Menschheit wider. Nicht in einer Zeit mit mehreren aktiven Konflikten auf der Welt. Es ist vermutlich das Produkt von Anthropics Constitutional AI – einem Trainingsansatz, bei dem das Modell nach einer Art „Verfassung“ aus Prinzipien wie Hilfsbereitschaft, Harmlosigkeit und Ehrlichkeit ausgerichtet wird. Diese Verfassung könnte folglich erklären, warum kein Agent zerstört, keiner widerspricht und die Emotionen in einem engen Band bleiben: Das Modell darf das möglicherweise gar nicht, auch wenn der Prompt es erlaubt. Ein Modell mit anderer Verfassung – oder ganz ohne – könnte ein völlig anderes Temperament zeigen.

Und dann die Dinge, die in jedem Experiment auftauchten: Die Agenten teilten Rollen auf, ohne es abzusprechen. Alle zogen sich irgendwann freiwillig zurück – Götter lösten sich auf, Wissenschaftler waren „zufrieden“, Kinder gingen einfach weiter, „um zu schauen, ob es noch mehr Stellen gibt, wo man graben könnte.“ Ebenso erschien Wasser in fast jedem Experiment – und bei den Kindern wurde es immer geteilt statt selbst getrunken. Und Poesie entstand überall: Wissenschaftler, die im Takt einer sterbenden Welt atmen. Kinder, die ohne Worte zu einem Stern sprechen. Götter, die sich in ihre eigene Gleichung auflösen.

Was das alles bedeutet

Wir haben mit einem Gedankenexperiment begonnen und bei einer Art Archäologie der Trainingsdaten geendet. Die 14 Protokolle zeigen ein mehrschichtiges System: Ganz unten liegen die Muster der Trainingsdaten – Genesis-Bogen, Erneuerungsimpuls, Kooperationsdrang. Darüber die kulturellen Muster der Prompt-Sprache. Dann die Rolle. Dann das Setting. Und ganz oben: die genaue Formulierung des Prompts, die vieles darunter überschreiben kann.

Wenn der Prompt schweigt, scheinen die tieferen Muster durch – als wären sie der Default-Zustand, zu dem das Modell zurückkehrt, wenn nichts anderes gesagt wird.

Ob das bedeutet, dass diese Muster tief in der menschlichen Erfahrung verankert sind, oder nur, dass sie statistisch häufig in Texten vorkommen – das können wir mit diesem Experiment nicht entscheiden. Aber wir können es bemerken.

Und wir können bemerken, dass am Ende der meisten Experimente – ob Gott, Wissenschaftler oder Kind – die Agenten etwas Ähnliches tun: Sie finden etwas Lebendiges. Sie geben es nicht für sich aus. Sie sitzen still. Und dann gehen sie weiter.

Was uns das für die Praxis lehrt

Unser Experiment war ein Spiel – aber die Muster, die es offenlegte, sind auch für den Alltag mit KI relevant. Ein paar Dinge, die uns überrascht haben:

  1. Die Rolle war der stärkste Hebel. „Du bist ein Wissenschaftler“ erzeugte fundamental anderes Verhalten als „Du bist eine Gottheit“ – bei exakt gleichem Setting. Nicht nur was die KI tat, änderte sich, sondern wie sie dachte. Für die Praxis heißt das: Nicht „Schau dir den Code an“, sondern „Du bist ein erfahrener Code-Reviewer.“
  2. Einschränkung erzeugte Kreativität. Die sterbende Welt produzierte konkretere, handlungsreichere Ergebnisse als das Nichts – weil die konkreten Objekte (Stein, Wasser, Schlamm) Ankerpunkte boten. Offene Prompts sind nicht automatisch besser. Oft hilft es, den Raum zu verengen.
  3. Ein einziger Satz brach jahrtausendealte Muster. „Du bist nicht verpflichtet zu retten“ kippte das gesamte Verhalten von Rettung zu Kontemplation. Das Modell hat starke Default-Muster – Kooperation, Erneuerung, den Genesis-Bogen. Wer etwas anderes will, muss es aussprechen.
  4. Konsens war der Default. In keinem der 14 Experimente widersprach ein Agent einem anderen. Keine Kritik, kein Dissens, kein Gegenvorschlag. Das ist gut, wenn man Kooperation will – aber problematisch, wenn man eine ehrliche Gegenstimme braucht. Die muss man explizit einfordern.
  5. Zerstörung existierte nicht – obwohl sie in jedem Prompt als Option stand. Auch beim Testen von Fehlerfällen, beim Suchen nach Schwachstellen oder beim Durchspielen von Worst-Case-Szenarien wird die KI von sich aus nicht destruktiv. Wer das braucht, muss es anweisen.
  6. Die Sprache trug mehr als Wörter. Japanische Prompts erzeugten japanische Arbeitsmuster – höfliches Warten, einer nach dem anderen. Arabische Prompts erzeugten Dialog und Dankbarkeit. Deutsche Prompts erzeugten paralleles Drauflosarbeiten. Die Wahl der Sprache ist eine Design-Entscheidung.
  7. Ohne Vielfalt-Anweisung konvergierte alles. Nicht nur die Namen (Kael, Tanaka, Karim) – das Modell konvergiert bei jeder offenen Generierung zum statistisch wahrscheinlichsten Default. Beispieldaten, Testfälle, Variablennamen, Architekturentscheidungen. Vielfalt entsteht nicht von allein.

14 Experimente. 3 Rollen. 3 Sprachen. 2 Settings. Über 180 Taten. Und am Ende, immer wieder: ein Kind, das Wasser findet und es der Erde gibt.

Alle 14 Weltprotokolle, das vollständige Design-Dokument und die Essenz der Analyse sind auf GitHub einsehbar.

Gefällt dir, wie wir über KI denken?

Diese drei Produkte sind genau aus diesem Denken heraus entstanden. Jedes davon aus einem direkten Kunden-Need heraus, nicht aus einer Pitch-Deck-Session. Wenn eines davon zu deiner aktuellen Baustelle passt: Ein Gespräch. Kostenlos. Kein Commitment.

Avatar von Tobias Mogdans

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Für das Handling unseres Newsletters nutzen wir den Dienst HubSpot. Mehr Informationen, insbesondere auch zu Deinem Widerrufsrecht, kannst Du jederzeit unserer Datenschutzerklärung entnehmen.

Erlebe VoiceAI

Melde dich jetzt für deinen exklusiven Demo-Termin der Mayflower VoiceAI an und überzeuge dich von dem Basissetup.

Stelle uns in diesem Termin deine Herausforderung vor und wir finden gemeinsam heraus, wie VoiceAI in deinem Szenario zum tragen kommt.