Sie suchen Ihre bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus

heise academy Logo
Webinare einer Webinar-Serie
Rheinwerk

Lokale LLMs und RAG für maßgeschneiderte KI-Lösungen

In diesem Kurs lernen Sie, wie große Sprachmodelle (LLMs) funktionieren und wie Sie mit GPT4All, Ollama und Open WebUI Ihre KI-Modelle lokal ausführen und benutzerfreundlich gestalten. Ihr Trainer Sebastian Springer zeigt Ihnen außerdem, wie Sie durch Quantisierung und Fine-Tuning Ihre Modelle optimieren und die Retrieval-Augmented Generation (RAG) mithilfe von LangChain und JavaScript implementieren.

Lokale LLMs und RAG für maßgeschneiderte KI-Lösungen

Überblick

Lokale LLMs und RAG effektiv für individuelle KI-Lösungen nutzen

In diesem Online-Kurs zeigt Ihnen Sebastian Springer, wie Sie große Sprachmodelle (LLMs) lokal betreiben und optimieren können. Lernen Sie gängige Plattformen wie GPT4All, Ollama und Open WebUI kennen und erfahren Sie, wie Sie Modelle durch Quantisierung und Fine-Tuning verbessern. Vertiefen Sie Ihr Wissen über die Integration externer Datenquellen mithilfe der Retrieval-Augmented Generation (RAG) und setzen Sie dies praktisch mit LangChain und JavaScript um.

Foto von Sebastian Springer

Sebastian Springer

Principal IT Architect | MaibornWolff

Zum Profil

Lokale LLMs und RAG für maßgeschneiderte KI-Lösungen

Webinar-Serie: Die eigene KI: Lokale LLMs und RAG für KI-Lösungen