Sie suchen Ihre bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus
In diesem dreitägigen, intensiven Hands-on-Workshop lernen Entwickler, wie sie Retrieval Augmented Generation (RAG) mit LangChain.js und LangGraph.js anwenden, um KI-Modelle an ihre eigenen Daten und Bedürfnisse anzupassen. Sie erfahren, wie sie maßgeschneiderte KI-Lösungen mit RAG entwickeln, Prompts optimieren und KI-Lösungen effizient implementieren.
+ 1 weitere Option
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Der Einsatz von Retrieval Augmented Generation (RAG) gewinnt stark an Bedeutung, wenn es darum geht, KI-Anwendungen auf unternehmensspezifische Daten zuzuschneiden. Dieser Workshop vermittelt praxisnahes Know-how für den gezielten Einsatz moderner KI-Architekturen in realen Geschäftsanwendungen.
Nach Teilnahme am Workshop können Sie ...
das Prinzip von Retrieval Augmented Generation (RAG) mit LangChain.js und LangGraph.js verstehen und sicher anwenden.
die Architektur von RAG-basierten Systemen verstehen und eigene Daten technisch integriert nutzen.
eigene Daten über Embeddings und Vektor-Datenbanken in KI-Modelle einbinden.
Prompts gestalten und optimieren, um die Präzision und Leistungsfähigkeit Ihrer KI zu verbessern.
maßgeschneiderte KI-Lösungen für Cloud und On-Premises entwickeln und in bestehende Systeme einbinden.
In diesem Workshop lernen Sie die Grundlagen von (RAG) kennen und setzen das Gelernte praxisnah mit LangChain.js und LangGraph.js um. Sie erfahren wie RAG moderne KI-Modelle mit unternehmensspezifischen Daten kombiniert, um präzise und kontextbezogene Antworten zu generieren.
Der Workshop vermittelt ein tiefes Verständnis für die Architektur von RAG-Systemen, die Integration eigener Daten über Embeddings und Vektor-Datenbanken sowie die Anbindung verschiedener KI-Modelle und APIs. Sie erlernen effektive Techniken zur Prompt-Optimierung und entwickeln modulare KI-Anwendungen, die flexibel in Cloud- oder On-Premises-Umgebungen einsetzbar sind.
In einer interaktiven Lernumgebung konzipieren und testen Sie eigene KI-Agenten und gewinnen so nicht nur technisches Know-how, sondern auch die Fähigkeit, innovative KI-Lösungen direkt im Berufsalltag erfolgreich umzusetzen.
Überblick über die Architektur von LangChain.js
Möglichkeiten, mit Language Models (LLMs & SLMs) zu arbeiten
Anbindung von APIs wie OpenAI, Azure OpenAI oder lokalen Modellen
Auswahlkriterien und technische Feinheiten der Modellintegration
Technische Details zur Einbindung eigener Daten in KI-Modelle
Erkundung von Embedding-Modellen und Vektor-Datenbanken
Analyse und Auswahlkriterien für Vektor-Datenbanken
Konfiguration und Integration dieser Komponenten in Projekte
Nutzung von LangChain zur Optimierung von Prompts und Effizienzsteigerung
Entwicklung maßgeschneiderter KI-Lösungen mit RAG als zentralem Pattern
Einsatz der Architektur sowohl in der Cloud als auch On-Premises
Analyse der Auswahl und des Einsatzes von Vektor-Datenbanken
Entwicklung eigener KI-Agenten von der Konzeption bis zu realistischen Testszenarien
Echtzeit-Interaktion und nahtlose Integration in Business-Anwendungen.
Entwickler, die ihre technischen Fähigkeiten erweitern und praxisnahe Einblicke in den Einsatz moderner KI-Technologien gewinnen möchten
Vorkenntnisse
Grundkenntnisse in JavaScript/TypeScript mit Node.js
Grundkenntnisse in Docker
Technische Voraussetzungen
IDE zur Webentwicklung (im Workshop wird vom Trainer Visual Studio Code verwendet)
Die aktuelle Node.js LTS Version muss installiert und NPM ohne Proxy-Probleme nutzbar sein.
Eine installierte Docker-Umgebung wäre ideal, ist aber nicht zwingend erforderlich. Alternativ zu Docker kann auch die kostenlose Desktop-Software LM Studio verwendet werden.
Ein OpenAI- oder Azure OpenAI Account wäre ebenfalls von Vorteil, ist aber nicht zwingend erforderlich.
Sie erhalten Ihre Schulungsunterlagen in digitaler Form. So können Sie selbst entscheiden, ob Sie diese elektronisch bearbeiten und archivieren oder lieber ausdrucken möchten.
Mit der Teilnahmebescheinigung unterstreichen Sie Ihr Weiterbildungsengagement und verbessern Ihre Perspektiven für interne Karriereschritte oder neue berufliche Wege.
Sie nehmen über Zoom am Workshop teil, wobei die Verbindung über einen lokal gehosteten, DSGVO-konformen On-Premises-Connector erfolgt.
Um einen intensiven Austausch zwischen dem Trainer und den Teilnehmenden zu gewährleisten, erfolgt die Schulung in Gruppen von höchstens 20 Personen.
Sollte die Durchführung der Veranstaltung aufgrund höherer Gewalt, der Verhinderung eines Referenten, von Störungen am Veranstaltungsort oder wegen zu geringer Teilnehmerzahl nicht möglich sein, werden die Teilnehmenden so früh wie möglich informiert.
Gregor Biswanger ist Consultant und Microsoft MVP für Azure AI und Web App Development. Er zählt zu den führenden Experten für generative KI, arbeitet eng mit dem GitHub-Copilot-Team von Microsoft zusammen und unterstützt Unternehmen bei der Umsetzung moderner KI-Lösungen. Als Berater, Trainer und Autor gibt er sein Wissen über Softwarearchitektur, Cloud-, Web- und Cross-Plattform-Entwicklung mit C# und JavaScript/TypeScript weiter und ist ein gefragter Sprecher auf internationalen Konferenzen. Neben seiner Beratungstätigkeit leitet er interaktive Workshops und hält Vorträge zu Themen wie Microservices, Angular, gRPC, Docker, Azure, Domain-Driven Design und KI-Architekturen. Er ist zudem als aktiver Entwickler auf Twitch („My Coding Zone“) und YouTube präsent. Gregor Biswanger gilt als einer der profiliertesten .NET- und JavaScript-Experten im DACH-Raum und veröffentlicht regelmäßig Fachartikel sowie Beiträge auf internationalen Konferenzen.
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Füllen Sie ganz einfach und bequem das Kontaktformular aus und wir werden Ihnen Ihre Fragen schnellstmöglich beantworten.
Telefonisch erreichbar: Mo – Fr | 08:30 – 16:00 Uhr