This case study is also available in English
TL;DR
Die Challenge
Die klassische Keyword-basierte Volltextsuche in Sprengnetter Books konnte zwar relevante Dokumente finden, war aber nicht in der Lage, aus dem Fachwissen eigenständig Antworten auf konkrete Fragen zu formulieren. Gesucht war eine Lösung, die das umfangreiche Wissen zur Immobilienbewertung versteht und Nutzer:innen natürlichsprachliche, präzise Antworten auf ihre spezifischen Fachfragen geben kann.
Unsere Lösung
Implementierung eines RAG-basierten (Retrieval-Augmented Generation) Assistenten, der moderne generative KI in Form des Large Language Models GPT-4o mit kontextbezogener Informationsextraktion verbindet. Die Lösung wurde in wenigen Monaten von einem kleinen INNOQ-Team entwickelt.
Das Ergebnis
Ein KI-gestütztes Chatsystem, das Abonnent:innen von Sprengnetter Books einen natürlichsprachlichen Zugang zum gesamten Wissensfundus ermöglicht, weit über die Möglichkeiten einer klassischen Suchfunktion hinaus.
Herausforderung: Antworten statt Suchergebnisse
Die Bewertung von Immobilien erfordert fundiertes Fachwissen aus verschiedensten Bereichen – von baurechtlichen Vorschriften über Bewertungsmethoden bis hin zu Marktanalysen. Dieses Wissen stellt Sprengnetter seinen Kund:innen in der digitalen Wissensdatenbank “Sprengnetter Books” zur Verfügung. Während die bestehende Volltextsuche Nutzer:innen zu relevanten Dokumenten führen konnte, fehlte die Fähigkeit, das enthaltene Wissen zu verstehen und daraus eigenständig Antworten zu formulieren. Nutzer:innen mussten die gefundenen Dokumente selbst durcharbeiten und interpretieren – ein zeitaufwändiger Prozess, besonders bei spezifischen Fachfragen.
Die Herangehensweise: Agil und fokussiert zum Ziel
In enger Abstimmung mit dem Sprengnetter-Team analysierte INNOQ zunächst die spezifischen Anforderungen und entwickelte einen Prototypen, der die Möglichkeiten moderner generativer KI demonstrierte. Das kleine, fokussierte Entwicklungsteam arbeitete dann in kurzen Iterationen an der Umsetzung der Lösung. So erhielt Sprengnetter auch einen niedrigschwelligen, direkten und begleiteten Einstieg in die Anwendung von generativer KI.
Die Zusammenarbeit mit INNOQ war von Anfang an sehr zielgerichtet. Das Team hat nicht nur technische Expertise mitgebracht, sondern auch ein tiefes Verständnis dafür entwickelt, wie unsere Nutzer:innen mit Fachinformationen arbeiten.
Tina UhligProduct Owner Sprengnetter Books
Der technische Ansatz: State-of-the-Art KI trifft Fachdatenbank
Das implementierte System basiert auf der RAG-Architektur (Retrieval Augmented Generation), die die Stärken großer Sprachmodelle mit präziser Informationsextraktion verbindet. Durch die Nutzung von OpenAI GPT-4o via API und MongoDB Atlas für Vektorsuche und PDF-Storage entstand eine Lösung, die den Nutzer:innen einen echten Mehrwert bei ihrer täglichen Arbeit bietet: präzise, quellenbasierte Antworten auf ihre fachlichen Fragen. GPT-4o besitzt als eines der aktuell führenden größten “Weltmodelle” die notwendige Generalisierungsfähigkeit, um im Zusammenspiel mit den gefundenen Quellen ein breites Spektrum von Fragen zu beantworten. Die Halluzinationsraten sind zudem deutlich geringer als bei kleineren Modellen.
Die RAG-Architektur (Retrieval-Augmented Generation) löst ein zentrales Problem beim Einsatz von Large Language Models: Sie verhindert, dass das Modell Fakten “erfindet”, wenn es auf Wissenslücken stößt. Stattdessen durchsucht ein Retrieval-System zunächst die relevanten Dokumente nach passenden Informationen. Nur diese verifizierten Informationen dienen dann als Kontext für die Antwortgenerierung. Das Ergebnis: Das System kann die Ausdrucksstärke und die Fähigkeiten zur “Schlussfolgerung” des Language Models nutzen, bleibt aber streng an die vorhandene Wissensbasis gebunden.
Der Vorteil dieser Architektur liegt auf der Hand: Anders als beim direkten Einsatz eines Language Models oder einer traditionellen Volltextsuche erhalten Nutzer:innen präzise, quellenbasierte Antworten in natürlicher Sprache. Die RAG-Architektur verbindet so die Vorteile beider Welten – die Präzision einer dokumentenbasierten Suche mit der Fähigkeit, Zusammenhänge zu verstehen und verständlich zu kommunizieren.
Einen technischen Schnelleinstieg in die RAG-Architektur finden Sie in unserem kostenfreien Primer.
Eine besondere technische Herausforderung beim Einsatz von Large Language Models ist deren Tendenz zu “halluzinieren”, wenn sie Wissenslücken mit plausibel klingenden, aber faktisch falschen Aussagen füllen. Die implementierte Lösung begegnet diesem Problem mit einem strikten Grundsatz: Jede vom System generierte Aussage muss durch konkrete Quellenangaben aus Sprengnetter Books belegt sein. Diese systematische Rückbindung an die Wissensbasis stellt weitgehend sicher, dass das System ausschließlich verifizierbare, fachlich korrekte Antworten liefert.
Besonderes Augenmerk lag dabei auf der kontextsensitiven Aufbereitung der Fachinformationen: Das System versteht nicht nur die Fragen der Nutzer:innen, sondern kann auch die relevanten Informationen aus dem umfangreichen Wissensfundus gezielt extrahieren und in verständlicher Form aufbereiten. Sogar komplexe mathematische Formeln werden dargestellt.
Mit dem neuen KI-gestützten Assistenten haben wir einen Quantensprung in der Nutzbarkeit unserer digitalen Wissensdatenbank erreicht. Unsere Kund:innen können nun in einen echten Dialog mit unserem Fachwissen treten.
Andreas KadlerGeschäftsführer Sprengnetter Real Estate
Eingesetzte Technologien
- RAG-Architektur (Retrieval-Augmented Generation)
- OpenAI GPT-4o via Microsoft Azure
- MongoDB Atlas für Vektor- und Volltextsuche
- PDF Processing Pipeline basierend auf PDFMiner, PDF.js Express Viewer