Generative KI hat sich schneller im Arbeitsalltag etabliert als jede vergleichbare Technologie zuvor. Texte, Analysen und Präsentationen entstehen heute in einem Bruchteil der Zeit, die noch vor wenigen Jahren nötig war.

Die Zahlen wirken eindeutig: In einem groß angelegten Feldexperiment mit 758 Unternehmensberatern von Boston Consulting Group erledigten Teilnehmer mit GPT-4-Zugang 12 Prozent mehr Aufgaben, arbeiteten 25 Prozent schneller, und die Ergebnisqualität stieg um 40 Prozent (Dell'Acqua et al., Harvard Business School Working Paper, 2023).

Dieselbe Studie liefert allerdings auch die Gegenerzählung: Bei Aufgaben jenseits der aktuellen KI-Fähigkeiten – der sogenannten „jagged technological frontier" – sanken die Ergebnisse um 19 Prozent unter das Niveau der Kontrollgruppe. Berater, die KI blind vertrauten, schnitten schlechter ab als jene, die ganz ohne sie arbeiteten.

Dieses Muster taucht inzwischen überall auf. Führungskräfte berichten von schnellerem Output bei dünner werdender Argumentation. Hochschulen sehen formal überzeugende Arbeiten, deren Verfasser die eigenen Gedankengänge nicht mehr erklären können. Recruiter erhalten Bewerbungen, die professioneller klingen als je zuvor – und die sich gleichzeitig kaum noch voneinander unterscheiden.

Das Problem liegt nicht in der Nutzung von KI an sich. Es liegt im Zeitpunkt ihres Einsatzes.


Die Midjourney-Mentalität im Arbeits- und Lernkontext

In früheren Beiträgen beschreiben wir die Midjourney-Mentalität als kulturelles Muster: die Tendenz, kreative und kognitive Arbeit frühzeitig an generative Systeme zu delegieren.

Im beruflichen und akademischen Alltag lässt sich dieses Muster präzise fassen:

Die Midjourney-Mentalität beschreibt den Einsatz von KI an einer Stelle des Denkprozesses, an der eigenes Verstehen, Strukturieren und Urteilen noch nicht stattgefunden hat.

Diese Verschiebung wirkt effizient. Tatsächlich greift sie jedoch in die Entwicklung grundlegender Fähigkeiten ein – und zwar messbar.

Michael Gerlich von der SBS Swiss Business School untersuchte 2025 den Zusammenhang zwischen KI-Nutzung und kritischem Denken bei 666 Teilnehmern unterschiedlichen Alters und Bildungshintergrunds. Das Ergebnis: Häufige KI-Nutzer schnitten auf dem Halpern Critical Thinking Assessment signifikant schlechter ab. Jüngere Teilnehmer waren besonders betroffen – sie nutzten KI am intensivsten und zeigten die niedrigsten Werte (Gerlich, „AI Tools in Society", Societies 15(1), 2025).

Der vermittelnde Faktor war Cognitive Offloading: das Auslagern geistiger Arbeit an externe Werkzeuge. Dieses Phänomen ist in der Kognitionspsychologie seit Langem beschrieben (Risko & Gilbert, 2016), aber KI verschärft es auf eine neue Weise. Taschenrechner haben uns das Kopfrechnen abgenommen. Suchmaschinen das Merken von Fakten. Generative KI nimmt uns etwas qualitativ anderes ab: das Formulieren, Abwägen und Strukturieren von Gedanken.


Denken verläuft in Phasen – KI auch

Wissensarbeit folgt keinem linearen Ablauf. Für den sinnvollen Einsatz von KI ist eine Unterscheidung entscheidend, die sich aus der Lernforschung ableiten lässt.

Phase 1 – Eigenes Verstehen und Strukturieren

Hier entsteht die Grundlage: Problemdefinition, erste Hypothesen, Prioritäten. Diese Arbeit fühlt sich langsam an, oft frustrierend. Genau das macht sie wertvoll. Die Kognitionspsychologen Robert und Elizabeth Bjork bezeichnen dieses Prinzip als „desirable difficulties" – produktive Schwierigkeiten, die das kurzfristige Lernen erschweren, aber die langfristige Speicherung und Transferfähigkeit massiv verbessern (Bjork & Bjork, 2011). Wer diesen Widerstand regelmäßig umgeht, trainiert sein Urteilsvermögen nicht mehr.

Phase 2 – Konfrontation und Erweiterung

Jetzt geht es darum, eigene Annahmen zu testen und Gegenargumente zu prüfen. Hier kann KI echten Mehrwert liefern – als Sparringspartner, der Schwachstellen in der eigenen Argumentation aufdeckt, alternative Perspektiven liefert, oder blinde Flecken sichtbar macht.

Phase 3 – Ausformulierung und Verdichtung

Erst am Ende stehen sprachliche Präzisierung, Formatierung, Zusammenfassung. Dies ist der Bereich, für den generative Systeme gebaut wurden.

Die Midjourney-Mentalität setzt KI bereits in Phase 1 ein. Professionelle Hochleistung entsteht, wenn KI ab Phase 2 genutzt wird.

Der Unterschied klingt abstrakt. In der Praxis ist er es nicht.


Drei typische Fehler

Fehler 1: KI vor eigener Analyse

Wer den Denkprozess mit einem generierten Konzept beginnt, übernimmt implizit dessen Struktur und Gewichtung. Eigene Priorisierung wird nicht bewusst unterlassen – sie findet schlicht nicht mehr statt. Man akzeptiert ein Denkgerüst, das man nie selbst gebaut hat.

Die BCG-Studie macht das greifbar. Die Forscher identifizierten zwei Nutzungstypen: „Centaurs", die Aufgaben gezielt zwischen sich und der KI aufteilten, und „Cyborgs", die KI in jeden Arbeitsschritt integrierten. Bei Aufgaben innerhalb der KI-Fähigkeiten funktionierten beide Ansätze. Jenseits dieser Grenze aber – wo eigenständiges Urteil gefragt war – gerieten besonders die KI-abhängigen Nutzer ins Straucheln.

Fehler 2: KI statt Hypothesenbildung

Ohne eigene Annahmen fehlt der Maßstab, an dem sich ein KI-Vorschlag bewerten ließe. Die Folge: Ergebnisse werden nicht geprüft, sondern lediglich akzeptiert oder kosmetisch verändert. In Organisationen zeigt sich das als Entscheidungsqualität, die sinkt, während die Produktivitätskennzahlen steigen.

Fehler 3: KI als Bestätigung statt als Herausforderung

Die meisten Menschen nutzen KI, um vorhandene Texte zu verbessern. Die wenigsten nutzen sie gezielt, um die eigenen Überlegungen infrage zu stellen. Dabei zeigen Jahrzehnte an Forschung zur Entscheidungsqualität, dass systematisches Durchspielen von Gegenpositionen – etwa in der Form eines „Devil's Advocate" – die Qualität komplexer Urteile deutlich erhöht.

Kurz gesagt: KI wird überwiegend als Poliermaschine eingesetzt, nicht als Prüfstand.


Wie leistungsstarke Nutzer KI einsetzen

Aus Gesprächen mit erfahrenen Wissensarbeitern – in Beratung, Produktentwicklung und Forschung – zeichnet sich ein wiederkehrendes Muster ab, das sich mit den Befunden der BCG-Studie deckt:

Erst denken, dann externalisieren. Eigene Skizzen, Notizen und auch unausgegorene Gedanken gehen der KI-Nutzung voraus. Nicht, weil diese Entwürfe perfekt sein müssen – sondern weil sie einen Maßstab schaffen, gegen den sich jeder KI-Output messen lässt.

KI als Konfrontationsinstrument. Statt „Schreib mir eine Zusammenfassung" heißt die Frage: „Was sind die drei stärksten Einwände gegen diese Position?" oder „Welche Annahme in meinem Konzept ist am schwächsten begründet?"

KI zur Verdichtung, nicht zur Erzeugung. Die Maschine verbessert Klarheit und Struktur. Die gedankliche Substanz muss vorher da sein.

Dieser Ansatz entspricht dem, was die OECD in ihrem Skills Outlook 2025 als entscheidend beschreibt: Nicht KI-Bedienung, sondern die Fähigkeit, in KI-geprägten Umgebungen eigenständig zu denken, sei die Kernkompetenz der kommenden Jahre. Der Bericht warnt explizit davor, dass ein Rückgang im Umgang mit komplexen Aufgaben – selbst in niedrigschwelligen Lernumgebungen – langfristig Wettbewerbsfähigkeit kosten kann (OECD Skills Outlook 2025, „Building the Skills of the 21st Century for All").


Konsequenzen für Studierende und Berufseinsteiger

Für Studierende ist die Frage nach dem richtigen Zeitpunkt besonders brisant. Ihr Ziel ist nicht Output – es ist Kompetenzaufbau.

Wer KI vor dem eigenen Lösungsversuch einsetzt, beschleunigt kurzfristig und schwächt langfristig die eigene Lernkurve. Das ist kein moralisches Argument, sondern ein kognitionswissenschaftliches: Bjorks Konzept der „desirable difficulties" besagt, dass Lernbedingungen, die sich schwieriger anfühlen, zu besseren Langzeitergebnissen führen. KI in Phase 1 beseitigt genau diese produktive Schwierigkeit.

Der Arbeitsmarkt reagiert bereits. Laut dem Future of Jobs Report 2025 des Weltwirtschaftsforums nennen sieben von zehn Unternehmen analytisches Denken als die wichtigste gesuchte Kernkompetenz. Coursera verzeichnet einen Anstieg von 185 Prozent bei Einschreibungen in Critical-Thinking-Kurse unter KI-Lernenden. Und das Analyseunternehmen Lightcast stellte fest: Acht der zehn meistgesuchten Fähigkeiten in KI-bezogenen Stellen sind menschliche Fähigkeiten – darunter kritisches Denken an erster Stelle.

Die Ironie ist schwer zu übersehen: Je leistungsfähiger die Werkzeuge werden, desto wertvoller wird die Fähigkeit, unabhängig von ihnen zu urteilen.


Eine kollektive Dimension

Wenn KI systematisch an der falschen Stelle eingesetzt wird, bleibt das kein individuelles Problem. Es verändert Arbeitskulturen, Ausbildungsstandards und die Qualität von Entscheidungen in Organisationen.

Die Gerlich-Studie liefert dafür einen beunruhigenden Befund: Höhere Bildungsabschlüsse pufferten den negativen Effekt der KI-Nutzung auf kritisches Denken teilweise ab. Das legt nahe, dass erlernte Reflexionsgewohnheiten – einmal aufgebaut – einen gewissen Schutz bieten. Wer diese Gewohnheiten jedoch nie entwickelt, weil KI sie von Anfang an überflüssig erscheinen lässt, hat keinen solchen Puffer.

Das Risiko ist nicht, dass KI uns dümmer macht. Das Risiko ist, dass wir eine Generation von Fachkräften ausbilden, die produktiv wirken, ohne die Urteilsfähigkeit entwickelt zu haben, die ihre Produktivität kontrolliert.


Fazit

Generative KI ist ein Werkzeug, das tief in kognitive Prozesse eingreift – tiefer als jedes Werkzeug zuvor. Ob es Arbeit und Lernen verbessert, entscheidet sich an einer einzigen Frage: Wann setzen wir es ein?

Wer den frühen, formenden Teil des Denkens bewahrt und KI gezielt zur Prüfung und Verdichtung nutzt, gewinnt beides: Qualität und Geschwindigkeit. Wer diesen Teil automatisiert, spart Zeit und zahlt mit Substanz.

Die BCG-Studie benennt die Konsequenz mit einer Formulierung, die sich jede Organisation merken sollte: Die leistungsfähigsten Nutzer waren nicht jene, die KI am meisten verwendeten – sondern jene, die am präzisesten wussten, wann sie es nicht tun sollten.

The link has been copied!