KI und Große Sprachmodelle besser nutzen
Konzeption und Entwicklung von Design Patterns für den Einsatz großer Sprachmodelle mit Retrieval-Augmented Generation in Anwendungen mit generativer Künstlicher Intelligenz
Durch die Digitalisierung und den enormen Anstieg von Datenmengen stehen Organisationen vor der Herausforderung, relevante Informationen zu erkennen und zu nutzen. In vielen Branchen vollzieht sich derzeit ein Wandel. Denn: Große Sprachmodelle (LLMs) wie GPT-4 bieten neue Möglichkeiten, wie z.B. generative Chatbots und virtuelle Assistenten im Kundensupport.
Bessere Antworten durch RAG
Allerdings entstehen durch LLMs auch Nachteile: Sie generieren mitunter veraltete, falsche oder erfundene Informationen, greifen auf unglaubwürdige Quellen zurück oder erfinden welche. Eine Lösung für dieses Problem ist der Einsatz von ‚Retrieval-Augmented Generation‘ (RAG). Mit dieser Technik können LLMs mit zusätzlichen Wissensquellen angereichert werden. Dadurch erhält man aktuellere, genauere und relevantere Antworten und reduziert die Fehlerquote. Derzeit fehlt es vielen Organisationen jedoch an Methoden, um RAG in ihre Betriebsabläufe zu integrieren. Außerdem erhöht RAG die Komplexität und Kosten. Zugleich kann sie Halluzinationen von LLMs zwar verringern, aber nicht vollständig vermeiden.
Design Patterns für einen reibungslosen Einsatz
Bastian Stock möchte in seiner Dissertation Design Patterns entwickeln, um Sprachmodell nutzende Anwendungen zu erstellen und zu optimieren, die auf LLMs und RAG basieren. Diese Design Patterns oder Lösungsschablonen wird er mit Best Practices anreichern und so aufsetzen, dass sie den fachlich regulatorischen Anforderungen für LLM-Anwendungen entsprechen. Bei der anschließenden Evaluierung plant er u.a., die Effektivität und Effizienz seiner Vorschläge zu bewerten und Erkenntnisse für künftige Anwendungen zu liefern.