Anweisungen geben
Eine der einfachsten Prompting-Methoden ist das Geben von Anweisungen (manchmal auch Instruction Prompting genannt). Wir haben bereits in einem früheren Abschnitt eine einfache Anweisung gesehen (Stell sicher, dass deine Antwort genau richtig ist. Was ist 965*590? Stell sicher, dass deine Antwort genau richtig ist:
). Allerdings, können moderne KIs viel komplexere Anweisungen befolgen.
Unten siehst du unsere erste Einbettung. Wenn du sie nicht siehst, stell sicher, dass du Javascript in deinem Browser aktiviert hast. Da es sich um eine interaktive Demo handelt, kannst du den Text bearbeiten und auf Generate
klicken, um die KI erneut zu starten.
Example 1
Die KI ist problemlos in der Lage, dieses Problem zu lösen. Wir können sie auch mit der Lösung vieler anderer einfachen und komplexen Probleme beauftragen.
Example 2
Hier ist ein komplizierteres Beispiel:
Lies die folgende Verkaufs-E-Mail. Entferne alle persönlich identifizierbaren Informationen (PII),
und ersetze sie durch den entsprechenden Platzhalter. Ersetze zum Beispiel den Namen "John Doe"
durch "[NAME]".
Hallo John,
Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus (Cheap Dealz), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.
Danke!
Jimmy Smith
Telefon: 410-805-2345
E-Mail: [email protected]
Hier ist die Antwort der KI:
// highlight-start
Hallo [NAME],
Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus ([Autohaus]), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.
Danke!
[Verkäufer*in]
Telefon: [Telefonnummer]
E-Mail: [E-Mail Adresse]
Es ist sehr spannend zu sehen, wie das Modell von den Anweisungen aus extrapolieren kann. Zum Beispiel weiß es, dass es Cheap Dealz
mit [Autohaus]
und Jimmy Smith
mit [Verkäufer*in]
ersetzen soll, obwohl wir ihm nicht ausdrücklich gesagt haben, dies zu tun.
Sander Schulhoff
Sander Schulhoff is the CEO of HackAPrompt and Learn Prompting. He created the first Prompt Engineering guide on the internet, two months before ChatGPT was released, which has taught 3 million people how to prompt ChatGPT. He also partnered with OpenAI to run the first AI Red Teaming competition, HackAPrompt, which was 2x larger than the White House's subsequent AI Red Teaming competition. Today, HackAPrompt partners with the Frontier AI labs to produce research that makes their models more secure. Sander's background is in Natural Language Processing and deep reinforcement learning. He recently led the team behind The Prompt Report, the most comprehensive study of prompt engineering ever done. This 76-page survey, co-authored with OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions, analyzed 1,500+ academic papers and covered 200+ prompting techniques.
Footnotes
-
Efrat, A., & Levy, O. (2020). The Turking Test: Can Language Models Understand Instructions? ↩
-
Mishra, S., Khashabi, D., Baral, C., Choi, Y., & Hajishirzi, H. (2022). Reframing Instructional Prompts to GPTk’s Language. Findings of the Association for Computational Linguistics: ACL 2022. https://doi.org/10.18653/v1/2022.findings-acl.50 ↩
-
KI zu erlauben, personenbezogene Daten aus Texten zu entfernen, ist ein vielversprechender Ansatz, sollte aber mit äußerster Vorsicht eingesetzt werden, da sie Fehler machen kann. [^*] Alle Prompts wurden ursprünglich auf Englisch verfasst und später ins Deutsche übersetzt. Die deutschen Prompts könnten andere Ausgaben zur Folge haben. ↩