Podcast

RAG

Abfragen und Bergen von Wissen

Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem ihr Weltwissen endet. Und über Unternehmensinterna wissen sie nichts. Hier setzt RAG (Retrieval-augmented Generation) an. Was dahinter steckt, klären Ole und Robert anhand verschiedener Anwendungsmöglichkeiten in dieser Folge. Sie diskutieren auch, wie RAG Large Language Models durch kontextuelle Wissensanreicherung verbessert, wann RAG sinnvoller und kostengünstiger ist als Finetuning und welche Engineering-Skills von Softwareentwicklerinnen und Architektinnen gefragt sind, wenn es darum geht, LLM-Modelle zu implementieren.
Weitere Episoden anhören

Shownotes & Links

Head of Data and AI

Robert Glaser ist Head of Data and AI bei INNOQ und blickt auf eine langjährige Erfahrung als Senior Consultant zurück. Mit seinem Hintergrund in Software-Engineering und seiner Expertise in der Entwicklung ergonomischer Webanwendungen berät er Unternehmen bei der Gestaltung zukunftsfähiger IT-Strategien mit Fokus auf Künstliche Intelligenz. Sein besonderes Interesse gilt den Use Cases für generative KI und der Integration von AI in Softwareprodukte. In seinem Podcast “AI und jetzt” diskutiert er Chancen von KI in verschiedenen Kontexten. Als Brückenbauer zwischen Technologie und Geschäftswelt liegt ihm nutzerzentrierte Digitalisierung am Herzen. Kulinarische Genüsse sind darüber hinaus seine große Passion.