Was echte Palantir-Consulting-Projekte über die Zukunft deines Einstiegsjobs verraten — und warum ein gut gebauter Masterprompt dieselbe Arbeit im Kleinen ist.
Ezekiel Akinsanya studierte vier Jahre in Princeton mit einem klaren Ziel: McKinsey. Consulting-Club gegründet, Sommer-Praktika absolviert, Cases gedrillt. Im Frühjahr 2026 schloss er ab — und entschied sich gegen Consulting. Seine Begründung, zitiert in Bloomberg: Er wolle im Job relevant sein, und dass Analysten das heute noch seien, sei nicht mehr klar. Entry-Level-Rollen, so Akinsanya, würden langsam obsolet (Boyle, 2026).
Wer sich für Consulting interessiert, kennt das Gefühl. Die Signale häufen sich: McKinsey hat über die letzten 18 Monate hinweg etwa zehn Prozent seiner Belegschaft abgebaut (Financial Times, 2025), BCG rekrutiert weniger Generalist-MBAs und priorisiert gezielt Data Scientists und Software Engineers (Poets&Quants, 2024), und die klassische Beratungs-Pyramide formt sich zur Diamantform — die Basis schrumpft, die Mitte wächst (Pye, 2026).
Und trotzdem ist die Konsequenz nicht “es gibt keine Jobs mehr”. Die Konsequenz ist, dass ein bestimmter Typ von Junior-Arbeit automatisiert wird. Excel-Daten aggregieren. Eine Standard-Marktanalyse bauen. Eine Executive Summary in Bullet Points schreiben. Das macht Lilli — McKinseys internes KI-Tool (Franzen, 2023) — heute schneller, zuverlässiger und teilweise besser als jeder Entry Level Analyst.
Was nicht automatisiert wird, zeigt McKinsey in seinem eigenen Interview-Format. Seit 2025 bittet die Firma Kandidaten in einer Runde, Lilli aktiv zu benutzen (Financial Times, 2026). Nicht um zu testen, ob sie KI vermeiden können, sondern wie sie mit ihr arbeiten. Die Interviewer beobachten, ob Kandidaten KI-Outputs hinterfragen, kontextualisieren und an die spezifische Klientensituation anpassen (Management Consulted, 2026). Getestet wird nicht Prompt-Handwerk. Getestet wird kritisches Denken und Urteilsvermögen im Dialog mit einer Maschine.
Die Frage für alle, die in Consulting rein wollen, ist also nicht mehr “werde ich ersetzt?”. Die Frage ist: welche Arbeit wird überhaupt noch benötigt — und wie bereite ich mich darauf vor?
Die beste Antwort darauf liefert, paradoxerweise, Palantir.
Was echte KI-Consulting-Projekte tatsächlich tun
Bain und Palantir unterhalten eine Partnerschaft, aus der gemeinsam Use Cases bei Großkonzernen entstehen (Persönliche Quelle). BCGs eigene Studien zeigen, dass rund drei Viertel aller Unternehmen daran scheitern, aus KI-Initiativen skalierbaren Wert zu ziehen (BCG, 2024). Die Projekte, die es schaffen, liefern genau den Beweis, den die Zielgruppe sehen muss — weil sie sichtbar machen, welche menschliche Arbeit zwischen “wir haben KI” und “wir erzeugen damit messbaren Wert” tatsächlich liegt.
Ein Beispiel: Tyson Foods, einer der größten US-Lebensmittelkonzerne, hat gemeinsam mit Palantir in zwei Jahren rund zwanzig KI-Use-Cases aufgesetzt und damit etwa mehrere hundert Millionen Dollar jährliche Einsparungen realisiert (Persönliche Quelle). Der Effekt entstand nicht aus einem einzelnen Leuchtturmprojekt, sondern aus der systematischen Replikation desselben Vorgehens — immer wieder neu, über verschiedene Bereiche hinweg. General Mills erzielt einen zweistelligen Millionen-Dollar-Betrag pro Jahr aus KI-gesteuerter Supply-Chain-Optimierung, bei einer Empfehlungsakzeptanz-Rate von über siebzig Prozent (Persönliche Quelle). Conagras KI-Tool für Trade-Promotion steuert Entscheidungen über mehrere Milliarden Dollar Werbespend mit (Persönliche Quelle).
Wenn man diese Cases nebeneinanderlegt und fragt, was hat der Consultant konkret gemacht, wiederholt sich ein Muster, das in fast jedem Projekt auftaucht. Es ist nicht “KI eingesetzt”. Es sind vier sehr spezifische Denkbewegungen.
Diese vier Implikationen sind strukturell identisch mit dem, was du machst, wenn du einen Masterprompt baust, sprich einen strukturierten mehrstufigen Prompt schreibst. Im Beratungsprojekt werden aus ihnen eine Foundry-Implementierung mit Millionenbudget. In deinem Claude- oder ChatGPT-Fenster werden daraus drei bis fünf Prompt-Stufen, die durch XML-Tags in Abschnitte unterteilt werden. Die Denkarbeit ist dieselbe. Die Skala ist eine andere.
Das ist der Grund, warum Prompt Engineering — wenn man es ernst nimmt — keine Bürotrickserei ist, sondern komprimiertes Beratungsdenken im kleinstmöglichen Maßstab.
Implikation 1: Fragmentierung erkennen — bevor die Maschine rechnet
Jeder Palantir-Case beginnt mit derselben Diagnose: Daten liegen verstreut in ERP-Systemen, Laboren, Logistik-Tools, in lokalen Excel-Dateien, die niemand zentral pflegt. Bevor irgendeine KI irgendetwas tut, muss jemand verstehen, wo das Wissen des Unternehmens feststeckt und wie es zusammenhängt — oder nicht zusammenhängt.
Bei Tyson Foods überführen die Berater zunächst sieben verschiedene ERP-Systeme in ein gemeinsames Modell, bevor die KI-Planung APEX überhaupt rechnen kann (Persönliche Quelle). Der Wert liegt nicht in der KI. Er liegt in der Diagnose: jemand muss erkennen, dass die Fragmentierung das eigentliche Problem ist, und die Bausteine an Informationen zusammenziehen.
In Miniatur machst du dasselbe, wenn du einen Agenten baust. Angenommen, du willst einen Rechercheassistenten, der dir für deine Bachelorarbeit Literatur aufbereitet. Bevor du irgendetwas promptest, musst du fragen: Welche Quellen gelten in meinem Feld? Was erwartet mein Betreuer stilistisch? Welche Argumente habe ich schon? Welche Gegenpositionen existieren? Das ist Kontextinventur — und sie ist der Unterschied zwischen einem Agenten, der generische Zusammenfassungen produziert, und einem, der für dein spezifisches Projekt etwas leistet.
Die meisten Studierenden überspringen diesen Schritt. Sie schreiben “hilf mir mit meiner Bachelorarbeit” und wundern sich über generische Antworten. Der Consultant bei Tyson hätte denselben Chat in dreißig Sekunden verworfen — nicht weil er cleverer promptet, sondern weil er die Diagnose vor der Lösung gemacht hätte.
Implikation 2: Eine Ontologie bauen — die stille Kernarbeit
Das ist die zentrale, meist unsichtbare Arbeit in jedem Case. Eine Ontologie ist — vereinfacht — ein explizites Modell davon, welche Entitäten in einem System existieren, welche Eigenschaften sie haben und wie sie zusammenhängen. Was ist ein “Lieferant”? Wie verhält er sich zu einem “Produkt”? Wann wird eine “Bestellung” zu einem “Auftrag”?
Conagra baut für seine Trade-Promotion-Optimierung eine Ontologie aus Nielsen-Daten, Circana-Daten, bestehenden Tools und unstrukturierten Dokumenten wie Händlerregeln und Markenstrategien (Persönliche Quelle). Erst als diese Begriffsarbeit erledigt ist, können Elastizitätsmodelle sinnvoll rechnen, und erst dann kann das Tool Entscheidungen über viele Milliarden Dollar Werbespend mitbestimmen. Das ist nicht Technik. Das ist das präzise Festlegen, was in diesem Unternehmen gemeint ist, wenn jemand “Promotion” sagt.
Ein gut strukturierter Masterprompt ist die kleinste Form derselben Arbeit. Wenn du in deinem Prompt mit Tags wie <role>, <context>, <rules> und <output_format> arbeitest, definierst du Entitäten. Wenn du innerhalb dieser Tags explizit machst, was ein “qualifizierter Interessent” in deinem Kontext ist, was ein “vollständiger Abschnitt” ausmacht, ab wann eine “Recherche ausreichend” ist — dann leistest du exakt die Ontologie-Arbeit, die Unternehmensberater bei Conagra leistet.
Ein konkretes Beispiel: Wenn man mithilfe von KI Kandidaten für eine Position filtern will, braucht man entsprechende Qualifikationskriterien.
<qualifizierter_kontakt>
- mindestens 50 Mitarbeiter
- aktives Hiring im Engineering-Bereich
- Budget-Entscheider erreichbar über LinkedIn
</qualifizierter_kontakt>
Das sind drei Zeilen Begriffsarbeit. Aber es sind die drei Zeilen, wegen derer dein Agent aufhört, jeden Kontakt gleich zu behandeln. Und es ist der Punkt, an dem die Maschine aufhört zu raten.
Implikation 3: Entscheidungen klassifizieren — welche gibst du ab, welche nicht
Tyson Foods trifft in seinen operativen Abläufen rund fünfzig Millionen Entscheidungen pro Jahr (Persönliche Quelle). Die kritische Beratungsarbeit ist nicht “alle automatisieren”. Sie ist: klassifizieren, welche Entscheidungen delegierbar sind und welche menschliches Urteilsvermögen brauchen.
Manche Umschichtungen im Lager können algorithmisch entschieden werden — die Kriterien sind klar, die Konsequenzen reversibel, das Risiko überschaubar. Eine Preisanpassung für eine ganze Produktlinie ist eine andere Größenordnung: hier muss ein Mensch prüfen, die Empfehlung gegen politische und strategische Kontexte halten, entscheiden. Beratungen nutzen genau solche KI-Anwendungen, die diese Ebenen selbst unterscheiden können, und sie unterschiedlich behandeln. Einige Entscheidungen fällen sie autonom, andere schlagen sie nur vor.
Wenn du einen Agenten baust, machst du dieselbe Klassifikation — nur explizit im Prompt. Instruktionen wie “Für Aufgaben vom Typ A handle eigenständig. Bei Typ B zeige mir deinen Plan, bevor du etwas umsetzt. Bei Typ C frag immer nach, bevor du tätig wirst.” Ohne diese Grenzziehung wird dein Agent entweder zu passiv oder zu übergriffig — im ersten Fall nutzlos, im zweiten gefährlich. Mit ihr wird er ein Werkzeug, dem du kontrollierte Autonomie erteilst.
Das ist dieselbe Skill-Arbeit, die ein Consultant beim Scoping eines KI-Projekts leistet. Kleiner Maßstab, identische Logik.
Implikation 4: Den Handoff designen — warum siebzig Prozent die wichtigste Zahl sind
General Mills' Zahl, die in der KI-Öffentlichkeit zu wenig diskutiert wird, ist nicht die X-Millionen-Einsparung. Es ist die Akzeptanzrate: über siebzig Prozent der KI-generierten Empfehlungen werden von menschlichen Entscheidungsträgern übernommen (Persönliche Quelle). Das ist kein KI-Ergebnis. Das ist ein Design-Ergebnis.
Der Consultant hat den Übergabepunkt so gebaut, dass der Mensch die Empfehlung nachvollziehen, hinterfragen und gegebenenfalls ablehnen kann. Nicht: “die KI sagt X, also machen wir X.” Sondern: “die KI sagt X, zeigt uns die zwei tragenden Annahmen, und wir entscheiden in drei Sekunden, ob wir zustimmen.” Dieses Design macht den Unterschied zwischen einem Tool, das benutzt wird, und einem, das ignoriert wird.
Im Masterprompt ist das die Instruktion, die den Unterschied zwischen einem nützlichen und einem gefährlichen Agenten macht. Beispiele: “Bevor du eine Empfehlung abgibst, nenne mir zwei Annahmen, die ich prüfen sollte.” “Mache dein Reasoning explizit, nicht nur dein Ergebnis.” “Sag ausdrücklich, was du nicht weißt oder was du geraten hast.” Solche Zeilen wirken nach drei Prompts unspektakulär. Aber sie sind der Unterschied zwischen einem Agenten, dem du blind folgst, und einem, mit dem du tatsächlich denken kannst.
Und sie sind, kaum überraschend, genau das, was McKinsey in seinen Lilli-Interviews testet. Nicht die Fähigkeit, einen cleveren Prompt zu bauen. Die Fähigkeit, einen Output kritisch entgegenzunehmen und die Handoff-Mechanik so einzuziehen, dass der Mensch am Ende die bessere Entscheidung trifft als Mensch oder Maschine allein.
Die Kurzform dieser Arbeit
Was die Palantir-Cases sichtbar machen, ist am Ende eine schlichte These: KI-Beratung ist nicht, KI zu benutzen. Sie ist, Probleme so zu strukturieren, dass KI sie lösen kann — und so genau zu wissen, wann man der Maschine nicht vertrauen darf, dass man es im richtigen Moment merkt.
Diese vier Implikationen — (1) Fragmentierung erkennen, (2) Ontologie bauen, (3) Entscheidungen klassifizieren, (4) Handoff designen — sind keine Prompt-Tricks. Sie sind die strukturelle Grundform dessen, was ein guter Consultant 2026 tatsächlich leistet. Wer sie beherrscht, sitzt auf der wachsenden Seite der Diamantstruktur. Wer sie nicht beherrscht, sitzt im schrumpfenden Teil.
Die gute Nachricht: sie sind lernbar. Und weil sie sich im Kleinen strukturell genauso zeigen wie im Großen, lassen sie sich auf einem Laptop, in einem Chat-Fenster, an einem einzigen Abend üben und iterieren. Ein Masterprompt, der Fragmentierung erkennt, eine saubere Ontologie trägt, Entscheidungstiers setzt und Handoffs designed, ist nicht weniger als ein Tyson-Projekt. Er ist dasselbe, nur im Maßstab 1:10.000.
Genau diese Verbindung bauen wir in Workshop 3 — Prompt Engineering — gerade als Langform aus. Nicht Prompting als Satzbau-Übung. Prompting als die kleinste Einheit von Beratungsdenken, an der sich die Bewegungen, die in McKinsey-Interviews getestet werden, Schritt für Schritt trainieren lassen. Eine erste Version der Inhalte steht bereits auf der Seite. Die erweiterte, am Foundry-Framework orientierte Fassung ist in Arbeit.
Wer den Unterschied zwischen “KI benutzen” und “mit KI strukturiert arbeiten” verstanden hat, hat die wichtigste Verschiebung im Beratungsberuf der nächsten Jahre vorweggenommen. Und das Beste: dafür brauchst du keinen Consulting-Job. Du brauchst einen guten Masterprompt — und die Bereitschaft, ihn umzubauen, bis er hält.