Podcast

RAG

Abfragen und Bergen von Wissen

Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem ihr Weltwissen endet. Und über Unternehmensinterna wissen sie nichts. Hier setzt RAG (Retrieval-augmented Generation) an. Was dahinter steckt, klären Ole und Robert anhand verschiedener Anwendungsmöglichkeiten in dieser Folge. Sie diskutieren auch, wie RAG Large Language Models durch kontextuelle Wissensanreicherung verbessert, wann RAG sinnvoller und kostengünstiger ist als Finetuning und welche Engineering-Skills von Softwareentwicklerinnen und Architektinnen gefragt sind, wenn es darum geht, LLM-Modelle zu implementieren.
Weitere Episoden anhören

Shownotes & Links

Head of Data and AI

Robert Glaser ist Head of Data & AI bei INNOQ. Mit einem Hintergrund im Software Engineering und einer Leidenschaft für benutzerfreundliche Webanwendungen begleitet er heute Unternehmen durch die KI-Landschaft. Dabei unterstützt er sie bei der Entwicklung von Strategien und Produkten für schwierige technische Herausforderungen. Fasziniert von der Vielseitigkeit generativer KI, moderiert er den Podcast „AI und jetzt“. Ihm ist die Brücke zwischen Technologie und Business ein Herzensanliegen. In seiner Freizeit erkundet er die lokale Food Szene.