Podcast

RAG

Abfragen und Bergen von Wissen

Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem ihr Weltwissen endet. Und über Unternehmensinterna wissen sie nichts. Hier setzt RAG (Retrieval-augmented Generation) an. Was dahinter steckt, klären Ole und Robert anhand verschiedener Anwendungsmöglichkeiten in dieser Folge. Sie diskutieren auch, wie RAG Large Language Models durch kontextuelle Wissensanreicherung verbessert, wann RAG sinnvoller und kostengünstiger ist als Finetuning und welche Engineering-Skills von Softwareentwicklerinnen und Architektinnen gefragt sind, wenn es darum geht, LLM-Modelle zu implementieren.
Listen to other episodes

Shownotes & Links

Head of Data and AI

Robert Glaser works as Head of Data and AI at INNOQ and boasts extensive experience from his previous role as a Senior Consultant. With a background in software engineering and expertise in developing ergonomic web applications, he advises companies on shaping sustainable IT strategies with a focus on Artificial Intelligence. He has a particular interest in the use cases for generative AI and the integration of AI into software products. In his podcast “AI und jetzt,” he discusses the opportunities of AI in diverse contexts. As a bridge-builder between technology and the business world, he is passionate about user-centered digitization. Beyond that, culinary delights are his major passion.