Blog Post
Lokale LLMs mit Ollama und Spring AI nutzen
Egal, ob wir wollen oder nicht, um AI und speziell Large Language Models (LLM)
kommen wir aktuell nicht herum. Mich schrecken solche Hypes zwar aus Reflex eher
ab. Allerdings sieht es so aus, als würde von diesem Hype mehr bleiben als vom
letzten, der Blockchain. Deshalb wollen wir uns in diesem Post einmal anschauen,
wie man ein LLM lokal aufsetzen kann und dieses mittels Spring AI in eine Spring
Boot-Anwendung einbinden kann.