Compete in HackAPrompt 2.0, the world's largest AI Red-Teaming competition!

Check it out →
Bienvenue
😃 Bases
💼 Applications de base
🧙‍♂️ Intermédiaire
🤖 Agents
⚖️ Fiabilité
🖼️ Prompting d'images
🔓 Hacking de prompts
🔨 Outillage
💪 Calibrage de prompts
🎲 Divers
📚 Bibliographie
📦 Prompted Products
🛸 Ressources supplémentaires
🔥 Sujets Brûlants
✨ Générique

Pièges des LLM

🟢 This article is rated easy
Reading Time: 2 minutes
Last updated on August 7, 2024

Sander Schulhoff

Les LLM sont extrêmement puissants, mais ils ne sont en aucun cas parfaits. Il existe de nombreux pièges dont vous devez être conscient lors de leur utilisation.

Citer des sources

Les LLM ne peuvent pour la plupart pas citer de manière précise les sources. Cela est dû au fait qu'ils n'ont pas accès à Internet et ne se souviennent pas exactement d'où viennent leurs informations. Ils génèrent souvent des sources qui semblent bonnes, mais qui sont entièrement inexactes.

Note

Des stratégies comme les LLM augmentés par la recherche (LLM qui peuvent rechercher sur Internet et d'autres sources) peuvent souvent résoudre ce problème.

Biais

Les LLM sont souvent biaisés en faveur de la génération de réponses stéréotypées. Même avec des gardes en place, ils diront parfois des choses sexistes/racistes/homophobes. Soyez prudent lorsque vous utilisez des LLM dans des applications destinées aux consommateurs et soyez également prudent lorsque vous les utilisez dans la recherche (ils peuvent générer des résultats biaisés).

Hallucinations

Les LLM génèrent fréquemment des faussetés lorsqu'on leur pose une question à laquelle ils ne connaissent pas la réponse. Parfois, ils indiqueront qu'ils ne connaissent pas la réponse, mais la plupart du temps, ils donneront avec confiance une réponse fausse.

Mathématiques

Les LLM sont souvent mauvais en mathématiques. Ils ont des difficultés à résoudre des problèmes mathématiques simples et sont souvent incapables de résoudre des problèmes mathématiques plus complexes.

Note

Ce problème peut être résolu dans une certaine mesure en utilisant un LLM augmenté d'outils.

Piratage de prompt

Les utilisateurs peuvent souvent tromper les LLM pour générer n'importe quel contenu qu'ils veulent. En savoir plus à ce sujet ici.

Sander Schulhoff

Sander Schulhoff is the CEO of HackAPrompt and Learn Prompting. He created the first Prompt Engineering guide on the internet, two months before ChatGPT was released, which has taught 3 million people how to prompt ChatGPT. He also partnered with OpenAI to run the first AI Red Teaming competition, HackAPrompt, which was 2x larger than the White House's subsequent AI Red Teaming competition. Today, HackAPrompt partners with the Frontier AI labs to produce research that makes their models more secure. Sander's background is in Natural Language Processing and deep reinforcement learning. He recently led the team behind The Prompt Report, the most comprehensive study of prompt engineering ever done. This 76-page survey, co-authored with OpenAI, Microsoft, Google, Princeton, Stanford, and other leading institutions, analyzed 1,500+ academic papers and covered 200+ prompting techniques.