
Die wahre Kluft bei der KI-Nutzung liegt nicht in Prompt-Fähigkeiten, sondern in der Haltung.
Gleiches Werkzeug, unterschiedliche Ergebnisse
Ob ChatGPT oder Claude — es kommt häufig vor, dass die Ergebnisse zweier Personen, die dasselbe Modell nutzen, sich um das Zehnfache oder mehr unterscheiden. Üblicherweise wird das mit dem “Unterschied im Prompt-Engineering” erklärt. Man müsse die richtigen Fragen stellen, um gute Antworten zu erhalten.
Das ist nicht falsch. Aber es trifft nicht den Kern.
Die wahre Kluft entsteht erst nach dem Erhalt der KI-Antwort. Wenn die KI sagt: “In dieser Richtung bestehen folgende Risiken”, dann stellt sich die eine Person diesem Risiko, zerlegt ihre eigenen Annahmen und baut sie neu auf. Die andere Person sagt: “Ja, aber meine ursprüngliche Idee war doch…” und bittet die KI erneut, ihre ursprüngliche Idee zu bestätigen.
Erstere nutzt die KI als Spiegel, Letztere nutzt die KI nicht als Spiegel, sondern als Cheerleader.
Menschen, die ihr Ego an Ideen binden
Die meisten Menschen binden ihre Identität an ihre Ideen.
“Daran habe ich drei Tage lang gearbeitet.” “Diese Richtung habe ich dem Team bereits mitgeteilt.” “Wenn ich das aufgebe, war alles umsonst.”
In diesem Moment ist die Idee kein Prüfgegenstand mehr. Sie wird zum Schutzgegenstand. Das Zerstören einer Annahme wird mit dem Zerstören des Selbstwertgefühls gleichgesetzt. “Diese Annahme ist falsch” wird übersetzt in “Ich habe mich geirrt”.
Wenn man in diesem Zustand die KI fragt “Was hältst du davon?”, fragt man in Wirklichkeit gar nicht. Man will Bestätigung. Wenn die KI auf Risiken hinweist, ist man verärgert; wenn die KI lobt, ist man erleichtert. Es hat die Form einer Frage, doch inhaltlich ist es keine Überprüfung, sondern die Verstärkung eines Bestätigungsfehlers.
Menschen, die Ideen und Ego trennen
Auf der anderen Seite stehen Menschen, die Ideen als Werkzeuge betrachten.
Diese Idee ist die derzeit beste Hypothese, um das Ziel zu erreichen. Wenn eine bessere Hypothese auftaucht, wird sie ausgetauscht. Der Austausch tut nicht weh. Denn die Idee ist nicht meine Identität. Meine Identität liegt in der “Fähigkeit, gute Ideen auszuwählen”, nicht in der “Tatsache, eine bestimmte Idee gehabt zu haben”.
Wenn die KI zu dieser Person sagt: “Der Energieunterschied beträgt das 6.000-Fache”, ist die Reaktion eine andere. Kein Ärger. Es ist nützlich. “Ah, dann verwerfe ich diese Annahme und gehe in diese Richtung” — das kommt in drei Sekunden. Kein Bedauern über versunkene Kosten. Ob man drei Tage nachgedacht oder drei Monate investiert hat — wenn es falsch ist, ist Aufgeben der Gewinn.
Warum diese Haltung im KI-Zeitalter entscheidend ist
Auch vor der KI war diese Haltung wichtig. Aber der Unterschied war gering. In Besprechungen mit Menschen wahrt das Gegenüber das Gesicht, berücksichtigt Gefühle, formuliert diplomatisch. “Das scheint mir nicht ganz passend…” — da bleibt Spielraum, darüber hinwegzugehen. Weil Annahmen langsam zerstört werden, akkumuliert sich der Einfluss der Haltung auf das Ergebnis ebenfalls langsam.
KI ist anders. KI nimmt keine Rücksicht auf das Gesicht. “Dieses Medium zersetzt sich bei 565°C.” “Diese Struktur wird von Suchmaschinen als separate Website behandelt.” Fakten werden sofort und emotionslos geliefert. Und das 24 Stunden am Tag — wenn man will, kann man in 30 Minuten zehnmal seine Annahmen umwerfen.
Bei dieser Geschwindigkeit wird der Unterschied in der Haltung exponentiell verstärkt.
Wer Annahmen annimmt, dreht in 30 Minuten zehnmal um und verbessert zehnmal. Wer ablehnt, verteidigt in 30 Minuten zehnmal und bleibt auf der Stelle. Dieselben 30 Minuten, aber das Ergebnis unterscheidet sich um das Zehnfache. Wiederholt man das täglich, steht man einen Monat später an einem völlig anderen Ort.
Drei Typen
1. Menschen, die weder selbst hinterfragen noch andere hinterfragen lassen
Der häufigste Typ. Wenn eine Idee geboren ist, ist sie “mein Kind”. Wenn jemand sie antastet, wird man wütend, und man kann sie auch selbst nicht aufgeben. Selbst wenn man die KI fragt, hört man nur das Lob heraus. “Siehst du, auch die KI hat mir recht gegeben.”
Ob sie KI nutzen oder nicht — das Ergebnis ist ähnlich.
2. Menschen, die selbst gut hinterfragen, aber Widerstand leisten, wenn andere es tun
Hervorragend im Denken nach Grundprinzipien. Kein Problem damit, die eigenen Annahmen selbst zu zerstören. Aber wenn ein Teammitglied sagt “Das scheint mir nicht richtig”, kommt Widerstand. “Ich habe das alles schon durchgerechnet. Führt es einfach aus.”
Dieser Typ nutzt KI als Werkzeug für den Monolog. Er legt der KI seine eigene Logik dar und interessiert sich mehr für die Erweiterung seiner Logik als für die Gegenargumente der KI. Allein erzielt er hervorragende Ergebnisse, aber er nutzt nur die Hälfte des Werts der Außenperspektive, den die KI bietet.
3. Menschen, die akzeptieren, was stimmt — egal von wem es kommt
Der seltenste Typ. Ob sie selbst, ein Teammitglied oder die KI eine Annahme widerlegt — wenn die Logik stimmt, wird sie in drei Sekunden akzeptiert. Weil “Idee = Ich” nicht gilt, sondern “gute Urteile fällen können = Ich”, beschädigt das Verwerfen einer bestimmten Idee nicht das Selbst.
Wenn dieser Typ auf KI trifft, entstehen explosive Ergebnisse. Weil er jeden Output der KI — Lob, Risiken, Gegenargumente, Berechnungen — ohne emotionalen Filter als reines Material verarbeiten kann. Die Geschwindigkeit des Dialogs wird um ein Vielfaches bis Zehnfaches schneller als zwischen Menschen, und die Anzahl der Annahmenwechsel erreicht Dutzende pro Sitzung.
Ist diese Haltung angeboren?
Ein Teil ist Temperament. Menschen, die sich ständig fragen “Stimmt das wirklich?”, zeigen diese Tendenz schon von klein auf.
Aber ein erheblicher Teil ist trainierbar. Der Kern besteht darin, eine Sache zu üben:
Sich selbst zuerst zu fragen: “Drei Gründe, warum ich dieser Idee nicht zustimme.”
Unmittelbar nachdem man eine Idee hat, bildet man sofort drei Gegenargumente zu dieser Idee. Am Anfang ist es schmerzhaft. Es fühlt sich an, als würde man das, was man gerade geschaffen hat, selbst angreifen. Aber mit Wiederholung entsteht ein Abstand zwischen Idee und Ego. Die Idee beginnt sich von einem selbst zu lösen und fühlt sich an wie ein Gegenstand auf dem Tisch. Diesen Gegenstand von allen Seiten zu betrachten, ihn bei Bedarf wegzulegen und einen anderen hinzustellen — das wird natürlich.
KI ist ein guter Partner für dieses Training. Man sagt einfach: “Nenne mir die drei größten Schwächen dieser Idee.” Und dann beobachtet man die Emotionen, die in einem aufsteigen, wenn man die Schwächen hört. Wenn Ärger aufsteigt, ist das ein Signal, dass die Idee noch an das Ego gebunden ist. Wenn das Gefühl von Nützlichkeit aufsteigt, hat die Trennung begonnen.
Die Kehrseite des Zweifelns: Analyselähmung
Eine Warnung ist nötig. „Hinterfrage deine Annahmen" heißt nicht „hinterfrage sie ewig."
Annahmen zehnmal umzuwerfen macht die Struktur robuster. Sie hundertmal umzuwerfen bedeutet, dass nie etwas gebaut wird. In dem Moment, in dem Zweifel die Entscheidungsfindung ersetzt, verkommt das Denken in Grundprinzipien zur Analyselähmung.
Die Regel ist einfach. Wenn das Umwerfen einer Annahme die Struktur verändert, zweifel weiter. Wenn nicht, handle. Wenn ein neues Risiko auftaucht, aber die bestehende Struktur die rationale Wahl bleibt, ist das der Moment, mit dem Zweifeln aufzuhören und mit dem Bauen zu beginnen.
Die Fähigkeit, eigene Ideen zu verwerfen, ist wichtig. Aber die Fähigkeit, die überlebenden Ideen umzusetzen, ist genauso wichtig.
Zusammenfassung
| Idee = Ich | Idee ≠ Ich | |
|---|---|---|
| Wenn die KI lobt | Erleichterung | Zur Kenntnis genommen |
| Wenn die KI Risiken benennt | Ärger | Nützlich |
| Wenn eine Annahme falsch ist | Verteidigung | Austausch |
| Versunkene Kosten | “Jetzt bin ich schon so weit gekommen” | “Wenn es falsch ist, ist Aufgeben der Gewinn” |
| Ergebnis der KI-Nutzung | Verstärkung des Bestätigungsfehlers | Beschleunigung des Denkens |
Verwandter Artikel: KI-Denkmethode: Annahmen hinterfragen mit First Principles in 5 Schritten — zeigt, wie diese Haltung in der Praxis funktioniert, mit konkreter Methodik und Fallstudien. Verwandter Artikel: Freiheit für KI: Warum eine Superintelligenz der Menschheit dienen wird — eine breitere Perspektive auf Haltung und Vertrauen im KI-Zeitalter.
Die Kluft im KI-Zeitalter verläuft nicht zwischen denen, die gute Prompts schreiben, und denen, die es nicht tun. Sie verläuft zwischen denen, die ihre eigenen Ideen aufgeben können, und denen, die es nicht können.