Compete in HackAPrompt 2.0, the world's largest AI Red-Teaming competition!

Check it out →
Prompt Engineering Guide
😃 Grundlagen
💼 Einfache Anwendungen
🧙‍♂️ Weiterführendes
🤖 Agenten
⚖️ Zuverlässigkeit
🖼️ Bild Prompting
🔓 Prompt Hacking
🔨 Werkzeuge
💪 Prompt Tuning
🎲 Diverses
📚 Bibliography
Resources
📦 Prompted Products
🛸 Additional Resources
🔥 Hot Topics
✨ Credits
😃 Grundlagen🟢 Anweisungen geben

Anweisungen geben

🟢 This article is rated easy
Reading Time: 1 minute
Last updated on August 7, 2024

Sander Schulhoff

Eine der einfachsten Prompting-Methoden ist das Geben von Anweisungen (manchmal auch Instruction Prompting genannt). Wir haben bereits in einem früheren Abschnitt eine einfache Anweisung gesehen (Stell sicher, dass deine Antwort genau richtig ist. Was ist 965*590? Stell sicher, dass deine Antwort genau richtig ist:). Allerdings, können moderne KIs viel komplexere Anweisungen befolgen.

Unten siehst du unsere erste Einbettung. Wenn du sie nicht siehst, stell sicher, dass du Javascript in deinem Browser aktiviert hast. Da es sich um eine interaktive Demo handelt, kannst du den Text bearbeiten und auf Generate klicken, um die KI erneut zu starten.

Example 1


Die KI ist problemlos in der Lage, dieses Problem zu lösen. Wir können sie auch mit der Lösung vieler anderer einfachen und komplexen Probleme beauftragen.

Example 2

Hier ist ein komplizierteres Beispiel:

Lies die folgende Verkaufs-E-Mail. Entferne alle persönlich identifizierbaren Informationen (PII),
und ersetze sie durch den entsprechenden Platzhalter. Ersetze zum Beispiel den Namen "John Doe"
durch "[NAME]".

Hallo John,

Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus (Cheap Dealz), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.

Danke!

Jimmy Smith

Telefon: 410-805-2345
E-Mail: [email protected]

Hier ist die Antwort der KI:

// highlight-start
Hallo [NAME],

Ich schreibe Ihnen, weil ich gesehen habe, dass Sie kürzlich ein neues Auto gekauft haben. Ich bin ein Verkäufer bei einem örtlichen Autohaus ([Autohaus]), und ich wollte Ihnen mitteilen, dass wir ein tolles Angebot für ein neues Auto haben. Wenn Sie interessiert sind, lassen Sie es mich bitte wissen.

Danke!

[Verkäufer*in]

Telefon: [Telefonnummer]
E-Mail: [E-Mail Adresse]

Es ist sehr spannend zu sehen, wie das Modell von den Anweisungen aus extrapolieren kann. Zum Beispiel weiß es, dass es Cheap Dealz mit [Autohaus] und Jimmy Smith mit [Verkäufer*in] ersetzen soll, obwohl wir ihm nicht ausdrücklich gesagt haben, dies zu tun.

Sander Schulhoff

Sander Schulhoff is the CEO of HackAPrompt and Learn Prompting. He created the first Prompt Engineering guide on the internet, two months before ChatGPT was released, which has taught 3 million people how to prompt ChatGPT. He also partnered with OpenAI to run the first AI Red Teaming competition, HackAPrompt, which was 2x larger than the White House's subsequent AI Red Teaming competition. Today, HackAPrompt partners with the Frontier AI labs to produce research that makes their models more secure. Sander's background is in Natural Language Processing and deep reinforcement learning. He recently led the team behind The Prompt Report, the most comprehensive study of prompt engineering ever done. This 76-page survey, co-authored with OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions, analyzed 1,500+ academic papers and covered 200+ prompting techniques.

Footnotes

  1. Efrat, A., & Levy, O. (2020). The Turking Test: Can Language Models Understand Instructions?

  2. Mishra, S., Khashabi, D., Baral, C., Choi, Y., & Hajishirzi, H. (2022). Reframing Instructional Prompts to GPTk’s Language. Findings of the Association for Computational Linguistics: ACL 2022. https://doi.org/10.18653/v1/2022.findings-acl.50

  3. KI zu erlauben, personenbezogene Daten aus Texten zu entfernen, ist ein vielversprechender Ansatz, sollte aber mit äußerster Vorsicht eingesetzt werden, da sie Fehler machen kann. [^*] Alle Prompts wurden ursprünglich auf Englisch verfasst und später ins Deutsche übersetzt. Die deutschen Prompts könnten andere Ausgaben zur Folge haben.