Definition
Retrieval-Augmented Generation (RAG) ist eine Technik, die generative Modelle mit Informationsabrufsystemen kombiniert. Sie basiert auf externen Quellen, um die sachliche Genauigkeit zu verbessern.
Zweck
Ziel ist es, Halluzinationen in der generativen KI zu reduzieren, indem Antworten mit abgerufenen Dokumenten ergänzt werden. Dies ist besonders nützlich bei der Beantwortung von Fragen und wissensintensiven Aufgaben.
Bedeutung
- Verbessert die sachliche Genauigkeit in LLM-Ausgaben.
- Ermöglicht domänenspezifische Wissensintegration.
- Erfordert zuverlässige Abrufsysteme.
- Bezieht sich auf Hybridsuche und Open-Domain-QA.
Funktionsweise
- Der Benutzer stellt eine Abfrage oder Eingabeaufforderung.
- Das Abrufsystem ruft relevante Dokumente ab.
- Dokumente werden in ein generatives Modell übergeben.
- Das Modell generiert Antworten basierend auf abgerufenen Inhalten.
- Feedbackschleifen verbessern die zukünftige Leistung.
Beispiele (Reale Welt)
- OpenAI ChatGPT mit Browsing- oder Abruf-Plugins.
- Meta-RAG-Modell: Forschung zu auf Retrieval basierenden LLMs.
- Perplexity AI: durch Retrieval erweiterte Konversationssuche.
Referenzen / Weiterführende Literatur
- Lewis et al. „Retrieval-Augmented Generation für wissensintensive NLP.“ NeurIPS 2020.
- Hugging Face RAG-Implementierung.
- Stanford HAI-Forschung zu Abrufmethoden.
- Was ist RAFT? RAG + Feinabstimmung