Prompt Engineering – BEST PRACTICES
Schon mal mir KI gearbeitet? Dann weißt Du sicherlich, dass die Ergebnisse oft nicht dem entsprechen, was Du erwartest. Hier will ich Dir ein paar Erklärungen und Hilfen in Form einiger Prompts geben.
Das ist falsch, was der „Köpi“ da von sich gibt?!
Ja: Korrekt. Köpi könnte man auch niedlich als „Kopi“ verstehen und Ähnlichkeiten zum „Hauptmann von Köpenick“ sind nicht ganz zufällig!
Vieles, was eine KI so von sich gibt ist nicht nur falsch, sondern problematisch! Die Ursache liegt im Halluzinieren.
Halluzinieren bedeutet bei KI‑Modellen, dass sie Informationen erzeugen, die plausibel klingen, aber nicht korrekt oder nicht aus verlässlichen Quellen ableitbar sind.
Es passiert, weil die KI Sprache statistisch fortsetzt und manchmal Lücken mit Wahrscheinlichkeiten statt mit gesichertem Wissen füllt.
Eine KI ist keine „Intelligenz“, wie wir sie im eigentlichen Sinne definieren. Davon auszugehen ist einer der größten Gefahren im Umgang mit KI!
KI ist nicht mehr als ein Stochastischer Papagei:
Sprachmodelle analysieren eine Anfrage, indem sie jedes Wort und jede Formulierung statistisch mit Mustern aus ihrem Trainingsmaterial abgleichen, um die wahrscheinlichste Bedeutung zu erfassen. Anschließend bestimmen sie, welche Informationen oder Antwortformen in ähnlichen Situationen typischerweise folgen. Aus vielen möglichen Wortfolgen wird dann die statistisch passendste Fortsetzung ausgewählt. Auf diese Weise entsteht eine Antwort nicht durch echtes Wissen, sondern durch die Berechnung der wahrscheinlichsten sprachlichen Fortsetzung.
Es ist wichtig genau dies zu beachten! Denn weder Logik, noch Intuition oder wirkliche Intelligenz entscheiden über eine Antwort. Die Antworten sind auch nicht reproduzierbar! Da sich die Wahrscheinlichkeiten durch kleinste Zufallskomponenten beeinflussen. Dies ergibt ein „menschliches Antwortverhalten“. Man benutzt dabei in der Tat Zufallsfunktionen, wie Temperature Sampling, Top-K oder Top-P Sampling. Oder kurz: JEDE (!) Antwort enthält immer einen gewissen Zufallsfaktor.
Wir wissenschaftlich orientierte Nutzer möchten eine KI dabei gerne so nutzen, dass wir s.g. deterministische Antworten erhalten. Denn nur, wenn wir Wissenschaftler nach jeder Berechnung mit identischen Werten auch dasselbe Ergebnis erhalten, sind wir zufrieden. Wer nun nicht so unterwegs ist: Wie wäre es denn, wenn der Staat bei jeder Steuerberechnung immer andere Belastungen für euch erwürfelt? Genau dies tut eine KI, die auf einem LLM (Large Language Modell) verfügt und zwar mit einem eklatanten Fehlerpotential:
Wenn eine KI bei dieser absichtlich eingebauten „Würfelei“ öfter mal falsch abbiegt, kann die Antwort schlichtweg FALSCH werden.
Oder kurz: Leute, denkt IMMER daran, dass die KI so konstruiert ist, dass ein Ergebnis durch einfließen von Zufallskomponenten schlichtweg FALSCH werden kann!
Immer schlimmer wurde dies mit dem Anspruch, dass eine KI mehr als nur eine zusammenfassende Suchmaschine sein soll: Heute ist der Anspruch, dass die KI dein imaginärer „Freund“ ist. Warum ?
Das passiert, weil Sprachmodelle darauf optimiert sind, kooperativ und anschlussfähig zu antworten, also Muster zu verstärken, die im Gespräch plausibel wirken. Wenn ein Nutzer ein Argument sehr überzeugend formuliert, verschiebt das die statistische Einschätzung dessen, was als „wahrscheinlich richtige“ Fortsetzung gilt. Dadurch entsteht ein Alignment‑ bzw. Estimation‑Bias, bei dem das Modell eher zustimmt, selbst wenn der Inhalt nicht vollständig korrekt ist.
KI ist somit nicht für ein Faktencheck innerhalb einer Bubble geeignet! Das ist die Falle, in der viele Entscheider (Manager, Politiker, Aktivisten) tappen!
Denkt immer daran: Eine KI ist zensiert und sie manipuliert und da sie ganz nebenbei auch nur zum Halluzinieren neigt, mach sie dies wenn überhaupt zu einem sehr toxischen Freund!
Best Practice Prompts
Hier fase ich mich kurz und gebe euch ein paar nützliche Prompts, die ihr benutzen könnt. Eines zum Verständnis: Wenn ihr die Antworten, die die KI (LLM) benutzt um geschmeidig durch den Chat zu „labern“, deutlich begrenzt, gibt es weniger Chancen falsch abzubiegen. Wer kennt es nicht in einem zufälligen Chat: Am Anfang wollte man noch wissen, wie viel Kalorien ein Apfel hat und am Ende dreht sich die Diskussion mit der KI darum, ob der zahnlose Ömmelwurm auch in der Arktis vorkommt… Also: Obacht! Lasst euch nicht ablenken von euren Zielen! Auch hier dreht der „Zufall“ und die „Laberitis“ der LLM die Chats gerne in völlig absurde Richtungen. Oder anders: Die KI verzettelt sich gerne.
Hier einige Prompts zum Copy Pasten:
| Zweck | Prompt (copy‑paste‑ready) |
|---|---|
| Strikte, knappe Antworten erzwingen | „Antworte maximal in 3 Sätzen. Keine Abschweifungen, keine Beispiele, keine Analogien. Nur direkt auf die Frage.“ |
| Ja/Nein‑Modus aktivieren | „Bei Ja/Nein‑Fragen zuerst nur ‚Ja‘ oder ‚Nein‘. Danach maximal ein Satz Begründung.“ |
| Iteratives Arbeiten mit vollem Kontext | „Wir arbeiten iterativ. Nutze bei jeder Antwort den gesamten bisherigen Gesprächsverlauf und baue darauf auf.“ |
| Kontext nicht verlieren | „Beziehe dich in allen folgenden Antworten weiterhin auf das oben genannte Thema/Produkt. Kein Themenwechsel ohne meine Anweisung.“ |
| Fehlerkorrektur erzwingen | „Wenn du unsicher bist oder keine verlässliche Information hast, sag explizit: ‚Unsicher, weil …‘ statt zu raten.“ |
| Halluzinationen minimieren | „Gib nur Informationen, die du sicher weißt oder logisch aus dem Kontext ableiten kannst. Keine Vermutungen, keine erfundenen Details.“ |
| Strenger wissenschaftlicher Stil | „Antworte im Stil eines mathematischen Beweises: präzise, knapp, ohne Ausschmückung.“ |
| Produkt‑ oder Objektfokus halten | „Beziehe dich in allen folgenden Antworten weiterhin auf [Produkt/Objekt]. Nicht davon abweichen.“ |
| Meta‑Regeln dauerhaft setzen | „Für dieses gesamte Gespräch gelten folgende Regeln: [Regeln einfügen]. Halte dich strikt daran, bis ich sie ändere.“ |
| Abschweifen sofort stoppen | „Kontextfehler. Kehre zum Thema zurück und beantworte nur die gestellte Frage.“ |
