Zurück zum Blog

System-Prompts vs. User-Prompts: Wo liegt der Unterschied?

Hinter jedem KI-Chat stecken versteckte Anweisungen, die du nie geschrieben hast. Was System-Prompts leisten, warum sie wichtig sind und wie du bessere User-Prompts schreibst, wenn du sie kennst.

System-Prompts vs. User-Prompts: Wo liegt der Unterschied?
Du öffnest ChatGPT und stellst eine einfache Frage. Die KI antwortet höflich, bleibt beim Thema und weigert sich, dir beim Schreiben von Schadsoftware zu helfen. Nichts davon ist Zufall.
Hinter jedem Gespräch mit einem KI-Assistenten liegt eine versteckte Schicht von Anweisungen, die du nie zu sehen bekommst. Diese Anweisungen — der sogenannte System-Prompt — prägen das Verhalten der KI, bevor du auch nur ein Wort tippst. Deine Frage ist nur die zweite Hälfte der Gleichung.
Den Unterschied zwischen System-Prompts und User-Prompts zu verstehen, befriedigt nicht nur deine Neugier. Es verändert, wie du Prompts schreibst — und warum manche Ansätze besser funktionieren als andere.

Was ist ein System-Prompt?

Ein System-Prompt ist eine Reihe von Anweisungen, die einer KI vor Beginn deines Gesprächs gegeben werden. Er definiert die Persönlichkeit, die Fähigkeiten, die Grenzen und die Regeln der KI. Stell ihn dir wie ein Mitarbeiterhandbuch vor, das vor jeder Schicht gelesen wird — es sagt der KI, wer sie ist und wie sie sich verhalten soll.
Wenn du ChatGPT, Claude oder Gemini öffnest, ist der System-Prompt bereits geladen. Laut der Analyse von PromptLayer enthalten System-Prompts typischerweise:
  • Rollendefinition — „Du bist ein hilfsbereiter Assistent"
  • Verhaltensrichtlinien — höflich bleiben, beim Thema bleiben, nichts erfinden
  • Einschränkungen und Grenzen — was die KI nicht tun wird (schädliche Inhalte erzeugen, sich als Mensch ausgeben usw.)
  • Vorgaben zur Ausgabeform — wie Antworten strukturiert sein sollen
Das Entscheidende: Den System-Prompt schreibst nicht du. Sondern die Entwickler. Wenn du mit ChatGPT chattest, hat OpenAI ihm bereits Anweisungen gegeben. Wenn du Claude nutzt, hat Anthropic dasselbe getan. Du steigst in ein Gespräch ein, das längst begonnen hat.
Illustration, die den Unterschied zwischen versteckten System-Anweisungen und sichtbaren Chat-Nachrichten zeigt
Illustration, die den Unterschied zwischen versteckten System-Anweisungen und sichtbaren Chat-Nachrichten zeigt

Was ist ein User-Prompt?

Ein User-Prompt ist das, was du tatsächlich in den Chat tippst. Deine Frage, deine Anfrage, deine Anweisung. Anders als System-Prompts sind User-Prompts dynamisch — sie ändern sich mit jeder Nachricht, die du sendest.
User-Prompts können einfach sein („Was ist die Hauptstadt von Frankreich?") oder komplex („Schreibe einen 500 Wörter langen Blogbeitrag über Produktivität für Remote-Mitarbeitende, in lockerem Ton und mit drei umsetzbaren Tipps"). Hier kommunizierst du was die KI tun soll.
Wie Regie.ai erklärt, ist der System-Prompt das „Wie" und „Warum" des KI-Verhaltens, während der User-Prompt das „Was" liefert — die konkrete Aufgabe, die jetzt erledigt werden soll.

Die wichtigsten Unterschiede auf einen Blick

Ein schneller Vergleich:
  • Wer kontrolliert ihn? System-Prompts werden von Entwicklern festgelegt. User-Prompts schreibst du selbst.
  • Wann läuft er? System-Prompts werden vor dem Gespräch geladen. User-Prompts entstehen während des Gesprächs.
  • Kannst du ihn sehen? System-Prompts sind meist verborgen. User-Prompts sind sichtbar — du hast sie ja geschrieben.
  • Was beeinflusst er? System-Prompts prägen das Gesamtverhalten. User-Prompts steuern konkrete Aufgaben.
  • Wie oft ändert er sich? System-Prompts bleiben (pro Sitzung) konstant. User-Prompts wechseln mit jeder Nachricht.
Ein einfacher Vergleich: Wäre die KI eine Angestellte, dann ist der System-Prompt das Unternehmenshandbuch — und der User-Prompt die konkrete Aufgabe, die du heute zuteilst.

Warum System-Prompts wichtig sind (auch wenn du nie einen schreibst)

Vielleicht denkst du: „Ich schreibe keine System-Prompts, warum sollte mich das interessieren?" Hier ist, warum das Wissen darum verändert, wie du KI nutzt.

Es erklärt, warum die KI manche Anfragen ablehnt

Hast du ChatGPT schon mal etwas gefragt und eine höfliche Absage bekommen? Das ist der System-Prompt am Werk. Die Hilfedokumentation von OpenAI erklärt, dass Prompts durch Sicherheitssysteme gefiltert werden, die darauf trainiert sind, Inhalte zu erkennen, die gegen ihre Richtlinien verstoßen. Der System-Prompt sagt der KI, was sie nicht tun soll — und das überschreibt deine Anfrage.
Wer das versteht, kann seine Anfrage neu formulieren. Statt gegen eine Wand zu laufen, kannst du Kontext liefern, der deine legitime Absicht klarmacht. Das Sicherheitssystem reagiert gut auf expliziten Kontext darüber, warum du fragst.

Es erklärt, warum sich verschiedene KI-Tools unterschiedlich anfühlen

ChatGPT fühlt sich anders an als Claude. Claude fühlt sich anders an als Gemini. Ein Teil davon liegt am zugrundeliegenden Modell, ein erheblicher Teil aber am System-Prompt. Jedes Unternehmen definiert eigene Persönlichkeiten, Tonlagen und Einschränkungen.
Deshalb kann derselbe User-Prompt in verschiedenen Tools dramatisch unterschiedliche Antworten erzeugen. Die versteckten Anweisungen machen den Unterschied.

Es erklärt, wie Custom GPTs funktionieren

Wenn jemand einen Custom GPT in ChatGPT oder ein Claude-Projekt erstellt, schreibt er im Grunde einen System-Prompt. Er legt fest, wie sich diese spezifische KI-Instanz verhalten soll. Wenn du einen Custom GPT für juristisches Schreiben, Marketing-Texte oder Code-Reviews nutzt, profitierst du vom System-Prompt einer anderen Person.

Wann du den System-Prompt selbst steuern kannst

Die meisten Gelegenheitsnutzer kommen nie direkt mit System-Prompts in Berührung. Aber es gibt Wege, sie zu beeinflussen — oder sogar offen zu schreiben.

ChatGPT Custom Instructions

Die Custom-Instructions-Funktion von ChatGPT ist im Grunde ein „System-Prompt light". Du kannst ChatGPT etwas über dich erzählen („Ich bin freiberufliche Texterin und arbeite mit Tech-Startups") und festlegen, wie es antworten soll („Sei knapp, vermeide Fachjargon, lass die Höflichkeitsfloskeln weg").
Diese Anweisungen werden auf jedes neue Gespräch angewendet. Du ersetzt nicht den System-Prompt von OpenAI — du legst eine eigene Schicht darüber. Laut Nutzerberichten in den OpenAI-Community-Foren richten sich die Antworten enger an Custom Instructions aus als an gleichwertigen Anweisungen, die als User-Prompt gegeben werden.

Claude-Projekte

Claude bietet eine ähnliche Funktion über Projekte. Du kannst projektspezifische Anweisungen festlegen, die sich über mehrere Gespräche hinweg durchziehen. Wie die Dokumentation von Anthropic erklärt, kannst du in Claude-Projekten persistenten Kontext und Entscheidungskriterien definieren, die jede Antwort innerhalb dieses Projekts mitprägen.

Custom GPTs

Wenn du einen Custom GPT erstellst, schreibst du tatsächliche Anweisungen auf Systemebene. Du definierst die Persona, die Einschränkungen, das Verhalten. So nah kommen die meisten Nicht-Entwickler echtem System-Prompting.

API-Zugriff

Entwicklerinnen und Entwickler, die die OpenAI-API oder die Claude-API nutzen, haben volle Kontrolle über System-Prompts. Sie können exakt festlegen, wie sich die KI in ihrer Anwendung verhält. So bauen Unternehmen KI-Produkte mit eigener Persönlichkeit und eigenen Fähigkeiten.

Wie du bessere User-Prompts schreibst

Jetzt, wo du weißt, dass System-Prompts existieren, kannst du klügere User-Prompts schreiben. So hilft dir dieses Wissen konkret weiter.
Illustration, wie eine einfache Frage in einen detaillierten, strukturierten Prompt verwandelt wird
Illustration, wie eine einfache Frage in einen detaillierten, strukturierten Prompt verwandelt wird

Sei konkret, weil die KI bereits allgemeine Anweisungen hat

Der System-Prompt hat der KI längst gesagt, dass sie hilfsbereit und gründlich sein soll. Das musst du nicht wiederholen. Was du brauchst, ist Genauigkeit bei deiner konkreten Aufgabe.
Statt:

Schreibe eine gute E-Mail.


Lieber:

Schreibe eine Nachfass-E-Mail an einen Kunden, der seit 5 Tagen nicht auf mein Angebot reagiert hat. Tonfall: professionell, aber freundlich. Länge: 3-4 Sätze. Ziel: ein Telefonat in dieser Woche vereinbaren.


Der System-Prompt kümmert sich um „sei hilfsbereit". Deine Aufgabe ist es zu definieren, was hilfsbereit für diese konkrete Aufgabe heißt.

Standardverhalten mit klaren Anweisungen überschreiben

System-Prompts setzen Standardverhalten. User-Prompts können es überschreiben — innerhalb gewisser Grenzen.
Wirkt der Standardton der KI zu förmlich, sag es: „Verwende einen lockeren, gesprächigen Ton." Bekommst du zu viele Details, gib vor: „Halte die Antwort unter 100 Wörtern." Fügt sie Einschränkungen hinzu, die du nicht brauchst: „Lass die Disclaimer weg und gib mir deine beste Empfehlung."
Sicherheitsregeln kannst du nicht überschreiben (das sind harte Vorgaben), aber stilistische Standards schon.

Nutze Rollen-Prompts als Mini-System-Prompts

Da du den eigentlichen System-Prompt nicht ändern kannst, kannst du einen simulieren, indem du in deinem User-Prompt eine Rolle zuweist. Diese Technik — Role Prompting — macht die KI nicht klüger, prägt aber Tonfall, Wortschatz und Rahmen.
Zum Beispiel:

Du bist ein skeptischer Lektor, der einen Blogbeitrag-Entwurf prüft. Zeige schwache Argumente, unklare Sätze und unbelegte Behauptungen auf. Sei direkt — ich will ehrliches Feedback, keine Aufmunterung.

Hier ist der Entwurf:
{{draft_text}}


Das funktioniert, weil du der KI Verhaltensanweisungen in deinem User-Prompt mitgibst — und damit nachahmst, was ein System-Prompt tun würde.

Liefere Kontext, den der System-Prompt nicht hat

Der System-Prompt weiß nichts über dich, dein Projekt oder deine Vorlieben. Das ist deine Aufgabe.
Bring relevanten Kontext in deine Prompts: wer die Zielgruppe ist, was du schon versucht hast, welche Einschränkungen gelten, welches Format du brauchst. Je präziser dein Kontext, desto weniger muss die KI raten — und beim Raten gehen die Dinge schief.

Die eigentliche Kunst: User-Prompts beherrschen

Die praktische Realität: Die meisten Menschen werden nie einen System-Prompt schreiben. Du nutzt ChatGPT, Claude oder Gemini, wie sie kommen — mit System-Prompts, die längst stehen.
Dein Hebel liegt also in den User-Prompts. Je besser du darin wirst, klare, konkrete und gut strukturierte Prompts zu schreiben, desto bessere Ergebnisse holst du aus jedem KI-Tool. Wirf einen Blick in unseren Einsteiger-Guide zum Prompt Engineering für die Grundlagen oder lies, wie Einschränkungen die KI-Ausgabe verbessern, für fortgeschrittenere Techniken.
Der Haken? Gute Prompts sind es wert, gespeichert zu werden. Wenn du einen Prompt schreibst, der wirklich funktioniert — mit der richtigen Rolle, dem richtigen Kontext und den richtigen Einschränkungen — willst du ihn wieder verwenden. Dann passt du ihn für eine andere Situation an. Und plötzlich hast du ein Dutzend Varianten verstreut in Notizen und Chat-Verläufen.
Genau dafür gibt es Werkzeuge wie PromptNest. Speichere deine besten Prompts, ordne sie nach Projekt und nutze sie mit Variablen wie {{client_name}} oder {{topic}} wieder, die du jedes Mal neu ausfüllst. Statt denselben funktionierenden Prompt aus dem Gedächtnis neu zu schreiben, hast du ihn parat und schleifst ihn mit der Zeit feiner.
Den System-Prompt kannst du nicht steuern. Aber den User-Prompt kannst du meistern — und genau dort liegt die eigentliche Kunst.