Lass uns loslegen.

Sende uns gerne eine Nachricht über das Kontakformular oder direkt per E-Mail an info(at)fellowork.de

Du interessierst dich für eine unserer Leistungen und möchtest ein Projekt mit uns starten? Vereinbare hier einen Termin für ein kostenloses Erstgespräch. Wir melden uns gerne bei dir!

Vielen Dank für deine Nachricht! Wir melden uns umgehend bei dir.
Oops! Das hat leider nicht geklappt! Überprüfe deine Eingabe und versuche es erneut.

Lass uns loslegen

Deine Reise zum digitalen Erfolg

Du interessierst dich für eine unserer Leistungen und möchtest ein Projekt mit uns starten? Vereinbare hier einen Termin für ein kostenloses Erstgespräch. Wir melden uns gerne bei dir!

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.

Wenn du lange genug mit großen Sprachmodellen gearbeitet hast, kennst du diese Situation wahrscheinlich:

  • Du schreibst einen sorgfältig ausgearbeiteten Prompt.
  • Du erklärst die Aufgabe.
  • Du fügst Einschränkungen, Sonderfälle und Beispiele hinzu.
    Und trotzdem übersieht das Modell etwas Wichtiges.

Das liegt nicht daran, dass das Modell unfähig wäre. Es liegt daran, dass wir es oft bitten, zu viele Dinge gleichzeitig zu tun.

Trotz ihrer scheinbaren Intelligenz bearbeiten Sprachmodelle Aufgaben in der Regel in einem einzigen Durchlauf. Wenn ein Prompt Analyse, Schlussfolgerungen, Entscheidungen und Generierung gleichzeitig verlangt, muss das Modell mehrere Ziele parallel verfolgen – ohne explizite Struktur. Das Ergebnis sind fragile Argumentationen und inkonsistente Resultate.

Genau hier kommt Prompt Chaining ins Spiel.

Bevor wir erklären, was Prompt Chaining ist, hilft es zu verstehen, warum ein einzelner „besserer Prompt“ selten ausreicht.

Anstatt eine Aufgabe als eine einzige, monolithische Herausforderung zu betrachten, zerlegen wir sie in kleinere, handhabbare Teile. Jeder Teil hat ein klares Ziel, einen definierten Input und einen erwarteten Output. Das reduziert die kognitive Last, schärft die Intention und macht Fortschritt messbar.

Dasselbe Prinzip gilt für die Arbeit mit KI.

Einschränkungen – Warum nicht einfach einen besseren Prompt schreiben?

Eine häufige Reaktion auf fehlgeschlagene Prompts ist, noch mehr Details hinzuzufügen: längere Anweisungen, mehr Einschränkungen, mehr Beispiele. In der Praxis verschlechtert das das Ergebnis oft sogar.

Wenn wir zu viel von einem einzelnen Prompt verlangen, überfordern wir das Modell. Es soll die Aufgabe verstehen, konkurrierende Anforderungen abwägen, korrekt schlussfolgern und ein qualitativ hochwertiges Ergebnis liefern – alles in einem Schritt.

Mit zunehmender Komplexität treten mehrere typische Fehlermodi auf:

  • Missachtung von Anweisungen: Teile des Prompts werden stillschweigend ignoriert
  • Kontextdrift: Das Modell optimiert auf die letzten Tokens statt auf das ursprüngliche Ziel
  • Fehlerverstärkung: Frühe Fehler werden nicht korrigiert, sondern fortgeschrieben
  • Druck auf das Kontextfenster: Zu viele Informationen konkurrieren um begrenzte Aufmerksamkeit
  • Halluzinationen: Hohe kognitive Last erhöht Fehlerraten und falsche Sicherheit
    Diese Probleme entstehen nicht durch mangelnde Fähigkeiten, sondern durch fehlende Struktur. Wenn komplexe Aufgaben in einen einzigen Schritt gepresst werden, wird das Denken implizit, fragil und schwer kontrollierbar.

Ein Beispiel:

„Analysiere Nutzerfeedback, fasse die wichtigsten Erkenntnisse zusammen und entwickle eine Strategie zur Verbesserung des Produkts.“

Ein solcher Prompt kann eine brauchbare Zusammenfassung liefern, aber eine schwache Problembewertung oder falsche Verbesserungsvorschläge. Das Modell ist gezwungen, mehrere Ziele gleichzeitig zu verfolgen.

Denken in Rollen statt in Prompts

Anstatt einen großen Prompt zu schreiben, der Analyse, Bewertung, Entscheidung, Formatierung und Verifikation gleichzeitig verlangt, sollten wir einen Schritt zurücktreten und wie Forschende, Analyst:innen oder Architekt:innen denken.

Wie würde ein Mensch dieses Problem angehen?

In der realen Welt werden komplexe Probleme selten von einer einzelnen Person in einem einzigen Schritt gelöst. Unternehmen verteilen anspruchsvolle Aufgaben auf Spezialist:innen – jede Rolle mit klarer Verantwortung und Expertise.

Diese Logik lässt sich direkt auf die Arbeit mit KI übertragen.

Statt eines überladenen Prompts entwerfen wir mehrere Prompts, die jeweils eine spezifische „Rolle“ repräsentieren:

  • ein Analyst, der das Problem versteht
  • ein Stratege, der Lösungsansätze entwickelt
  • ein Umsetzer, der das Ergebnis produziert
  • ein Reviewer, der auf Fehler oder Inkonsistenzen prüft
    Indem wir diese spezialisierten Prompts miteinander verketten und die Outputs jeweils als Input für den nächsten Schritt nutzen, entsteht eine Prompt-Kette, die menschliche Problemlösungsprozesse widerspiegelt.

Beispiel: Von Kundenfeedback zu Produktverbesserungen

Die Umwandlung von rohem Kundenfeedback in konkrete Produktverbesserungen ist kein Ein-Schritt-Problem.

Ein typischer menschlicher Workflow sieht so aus:

  • Lesen von Feedback aus verschiedenen Quellen (E-Mails, Reviews, Support-Tickets, Kommentare)
  • Gruppieren ähnlicher Beschwerden und wiederkehrender Themen
  • Priorisieren der Probleme nach Häufigkeit und Wirkung
  • Ableiten konkreter Maßnahmen oder Verbesserungen

Jeder Schritt erfordert eine andere Denkweise:
Empathie beim Lesen, Mustererkennung beim Gruppieren, Urteilsvermögen bei der Priorisierung und strategisches Denken bei der Lösungsfindung.

Bild (2).png

Mit Prompt Chaining können wir diesen Prozess als Abfolge von Agenten modellieren:

Schritt 1: Aufgabe in spezialisierte Rollen und Teilprobleme zerlegen

  • Customer-Support
    Sammelt und fasst Feedback zusammen, mit Fokus auf Klarheit und Tonfall, nicht auf Schlussfolgerungen.
  • Pattern-Extraction
    Identifiziert wiederkehrende Probleme, Themen und Trends.
  • Priority-Evaluation
    Bewertet und priorisiert die extrahierten Probleme nach Häufigkeit, Schweregrad und Business-Impact.
  • Solution-Strategy
    Entwickelt konkrete Produkt- oder Prozessverbesserungen für die wichtigsten Probleme.

Schritt 2: Strukturierte Inputs entwerfen

Nachdem eine komplexe Aufgabe in rollenspezifische Teilaufgaben zerlegt wurde, müssen wir verstehen, was jede Aufgabe tatsächlich benötigt.

Ein häufiger Fehler ist, sofort mit dem Schreiben von Prompts zu beginnen. Rollen allein reichen jedoch nicht aus. Eine Rolle ohne den richtigen Input ist nur ein Titel.

Jeder Schritt in einer Prompt-Kette sollte haben:

  • eine klare Verantwortung
  • einen klar definierten Input
  • einen vorhersehbaren Output
    Der Input bestimmt, worüber eine Aufgabe nachdenken kann – und genauso wichtig: was sie ignorieren soll.
    Eine Analyse benötigt keine Formatierungsregeln. Eine Priorisierung benötigt keine rohen, ungefilterten Daten.

Hier geht es nicht um Prompt-Optimierung, sondern um das Design sauberer Schnittstellen zwischen Aufgaben.

Prompt-Ketten verhalten sich weniger wie Gespräche und mehr wie Softwaresysteme. Die Qualität des Gesamtsystems hängt nicht von cleveren Einzelprompts ab, sondern davon, wie präzise Informationen geformt und weitergegeben werden.

Die zentrale Frage für jeden Schritt lautet:
„Welche minimale Information benötigt diese Aufgabe, um ihre Arbeit gut zu erledigen – nicht mehr und nicht weniger?“

Schritt 3: Strukturierte Outputs entwerfen

Eine Prompt-Kette ist nur so zuverlässig wie die Daten, die durch sie fließen. Unklare oder lose strukturierte Outputs machen alle nachgelagerten Schritte fragiler.

Unstrukturierter Text lässt zu viel Interpretationsspielraum. Jeder nachfolgende Schritt muss Intention, Kontext und Relevanz neu interpretieren – was Drift, kognitive Last und Fehler begünstigt.

Strukturierte Outputs wirken hier wie explizite Verträge zwischen Aufgaben.

Beispiel für einen strukturierten Output eines Pattern-Extraction-Schritts:

{
  "issues": [
    {
      "issue_name": "Langsame App-Performance",
      "frequency": "hoch",
      "summary": "Nutzer berichten über lange Ladezeiten und Verzögerungen."
    },
    {
      "issue_name": "Unübersichtlicher Onboarding-Prozess",
      "frequency": "mittel",
      "summary": "Neue Nutzer verstehen zentrale Funktionen nicht."
    }
  ]
}

Solche Strukturen ermöglichen:

  • eindeutige Interpretation
  • deterministisches Parsing
  • programmgesteuerte Validierung
  • Isolierung einzelner Fehler
Takeaway:
Wenn Inputs definieren, worüber eine Aufgabe nachdenken kann, definieren Outputs, worauf sich das System verlassen kann.

Schritt 4: Prompts aus Rollen, Inputs und Outputs ableiten

Erst jetzt sind wir bereit, Prompts zu schreiben.

Prompts sind keine offenen Bitten mehr, sondern Implementierungen bereits getroffener Entscheidungen. Jeder Prompt ergibt sich direkt aus:

  • der Rolle
  • dem strukturierten Input
  • dem erwarteten strukturierten Output
    Dadurch werden Prompts kürzer, präziser und robuster. Sie lassen sich isoliert überprüfen, und Fehler bleiben lokal begrenzt.

Schritt 5: Prompts verketten und das System überprüfen

Beim Verketten geht es nicht nur um Reihenfolge, sondern um kontrollierten Informationsfluss.

Jeder Schritt sollte nur die Informationen erhalten, die er benötigt. Zusätzliche Metadaten oder Erklärungen sind Nebenprodukte – keine impliziten Inputs.

Die Prompt-Kette sollte als Gesamtsystem überprüft werden:

  • Erhält jeder Schritt nur relevante Informationen?
  • Sind Outputs konsistent strukturiert?
  • Sind Verantwortlichkeiten sauber getrennt?
  • Wo könnten Fehler weitergegeben werden?

Eine gute Prompt-Kette ist nicht statisch. Sie verbessert sich durch Tests, Beobachtung und gezielte Anpassungen.

Wann Prompt Chaining übertrieben ist

Prompt Chaining ist mächtig – aber nicht immer sinnvoll.

Oft ist es Overkill bei:

  • Einfachen Transformationen (Umschreiben, Übersetzen, Formatieren)
  • Kreativen, offenen Aufgaben wie Brainstorming oder freiem Schreiben

Prompt Chaining entfaltet seinen Wert dort, wo Struktur, Zuverlässigkeit und Nachvollziehbarkeit entscheidend sind. Wo sie es nicht sind, ist Einfachheit meist die bessere Wahl.

Weitere Themen