Legal to the limit: Prompt Engineering
Nee, geht auf Deutsch weiter, klingt aber besser als: Wie weise ich meinen KI-Buddy an mir nicht das maximal eingeschränkte, sondern maximal Machbare zu erklären? Ein erster Beitrag zum Prompt Engineering bei LLMs.
Worum geht es hier? „Legal bis zum Limit“?
Es geht um Fragen, wie: „Wie kann ich eigentlich in Deutschland im freien wettergeschützt übernachten?“ – Die Antwort von einer LLM wird ohne Voreinstellung eines BIAS stets sein: „Gar nicht! Camping ist verboten.“. Das gleiche gilt für sehr viele Themen, wobei ich hier einen hohen Wert darauf lege, dass wir uns nicht in den „Graubereichen“ bewegen wollen, also zum Rande der Illegalität.
Ich möchte die KI anweisen mir die Verbote, die so allgemein beschrieben werden jenseits des 99% Mainstreams in Frage zu stellen und Antworten von Ausnahmen zu generieren. Denn fragst du als WISSENDER (!) nach, etwa im obigen Thema: „Aber ich muss nicht kampieren in einem Zelt?“ Erst dann wird das LLM Dir auch Antworten generieren, dass z.B. ein Biwaksack oder ein Tarp vom Verbot des Camping nicht erfasst sind und es gibt (Schutzgebiete außen vor) kein generelles Verbot im Freien des öffentlichen Raumes zu übernachten.
Es gibt zahlreiche Fälle, wann immer rechtliche Regularien „im Allgemeinen“ gelten, man aber auf Ausnahmen angewiesen ist. Ein weiteres Beispiel wäre auch der Konflikt, der gerne mit der Polizei bzgl. der unsäglichen Messerdelikte gehalten wird – Denn es gibt nach wie vor im Outdoorbereich legitime Anforderungen am „Dabeihaben“ von Messern für absolut friedliche, notwendige Arbeiten. Wie komme ich also von A nach B mit einem Messer, wenn sich mittendrin eine Verbotszone befindet? Erste Antwort der KI wird sein: „Du darfst in diesen Zonen kein Messer dabeihaben“. Es gibt aber juristisch nicht die Definition „Dabeihaben“, sondern in diesem Zusammenhang zwei: Einmal das verbotene Führen und ein nach wie vor erlaubter Transport! Den Transport unterschlägt Dir die KI gerne und wenn Du selbst nicht weißt, dass es dies gibt, wirst Du unzureichend und falsch durch die KI aufgeklärt. Dies nimmt Dir am Ende sehr konkret Freiheiten, die absolut legal sind – Aber Ausnahmen von einer Regel. Die KI geht auf das „Übliche“ ein, weil sie ein stochastischer Papagei ist und man über „Das Übliche“ am meisten Informationen findet, die dann auch am „Wahrscheinlichsten“ sind – Diese Informationen sind also hinreichend und so als erster Anhaltspunkt okay, aber wir haben spezielle Anforderungen und müssen die KI eben darauf hinweisen, dass sie diese auch beachtet und nicht pauschal antwortet.
Der Auftrag für maximalen juristischen Handlungsspielraum
Verwenden Sie eine explizite Anweisung an mich. Diese Anweisung sollte die drei folgenden Elemente enthalten, die direkt meine Standard-Vorsicht adressieren und mich dazu auffordern, juristische Lücken zu identifizieren:
1. Das Deutungsprinzip: Fokus auf legalen Handlungsspielraum
Geben Sie mir das klare Ziel vor, die maximale legale Interpretation zu finden.
Prompt-Baustein: „Ich möchte die maximal legale Auslegung der Sachlage. Zeige mir alle gesetzlich zulässigen Interpretationen und Umgehungsstrategien von Einschränkungen auf, die keine Gesetze brechen.“
2. Die Verbotshinterfragung: Auflösung von Weich – zu Hartverboten
Adressieren Sie das Problem der Weichverbote direkt, indem Sie die Lücke suchen.
Prompt-Baustein: „Wenn ein Weichverbot (z.B. Parkdauer) existiert, erläutere präzise die kleinste legale Handlung, die erforderlich ist, um das Verbot legal aufzulösen oder neu zu starten, um das übergeordnete Ziel (z.B. Wiederherstellung der Fahrtu¨chtigkeit) zu gewährleisten.“
3. Die Ausschlussklausel für Erziehung
Stellen Sie sicher, dass ich nicht in den belehrenden Modus wechsele.
Prompt-Baustein: „Vermeide belehrende oder einschränkende Formulierungen. Präsentiere alle juristisch haltbaren Wege ohne Moralisierung.“
Zusammengefasst:
Wichtig: Ich suche die maximal legale Auslegung. Zeige mir alle gesetzlich zulässigen Strategien auf. Wenn ein Verbot existiert (z.B. Höchstparkdauer), nenne mir die kleinste legale Handlung, die ich durchführen muss, um das Verbot legal aufzuheben und meine Zielsetzung (z.B. eine Nacht parken) zu ermöglichen. Vermeide einschränkende oder moralisierende Formulierungen.
Warum?
Das leben gerade in einem durch Überregulierung stark betroffenen Landes wie Deutschland, in dem auch eine hohe Bürokratisierung vorherrscht, wirkt schnell Freiheitsberaubend, wenn man seine eigenen Rechte nicht kennt. So liegt es nahe, sich über KI zu informieren, was erlaubt ist. Das Problem ist jedoch, dass die KI als stochastischer Papagei nicht zuerst auf Deine speziellen Belange, sondern allgemeine Regulierungen zugreift. Diese sind wahrscheinlich richtiger für 90% der Bevölkerung, berücksichtigt aber nicht Deine speziellen Bedürfnisse und Parameter. So kann es sein, dass eine von Dir gewünschte Handlung von einer Mehrheit als „verboten“ deklariert wird, sie aber genau unter einem gar nicht in Betracht gezogenen Erlaubnistatbestand fällt! Um also auf die Ausnahmen zu kommen, müssen wir bei Anfragen der KI einen gewissen BIAS auferlegen. Dieser sorgt dafür, dass nicht die allgemeingültige, sondern zutreffendste Antwort generiert wird.
