Sie suchen Ihre bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus
Leistungsstarke, sichere und flexible KI-Lösungen im Unternehmen erfolgreich einsetzen: In diesem Workshop lernen Sie, wie Sie Large Language Models (LLMs) gezielt an Ihre eigenen Anforderungen anpassen – von Feintuning und Retrieval-Augmented Generation (RAG) bis hin zur lokalen Nutzung mit Ollama. Sie erfahren, wie Sie unternehmenseigene Daten sicher in LLMs integrieren, Multi-Agenten-Systeme zur Automatisierung entwickeln und KI-gestützte Prozesse optimieren.
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Dieser Workshop vermittelt praxisnah das Wissen und die Werkzeuge, um maßgeschneiderte LLM-Anwendungen zu entwickeln und einzusetzen. Nach Abschluss des Workshops können Sie
LLMs auf eigene Bedürfnisse optimieren: Sie verstehen die Grundlagen des Feintunings und der Modellpersonalisierung, um generative KI an Ihre individuellen Anforderungen anzupassen.
Eigene Daten integrieren: Sie lernen, wie sich firmeneigene Daten sicher in LLMs einbinden lassen – sei es durch Feintuning oder durch Retrieval-Augmented Generation (Advanced RAG), einschließlich Texte, PDFs mit Tabellen und Bildern.
LLMs lokal und sicher betreiben: Sie erfahren, wie Sie KI-Modelle mit Plattformen wie Ollama auf eigenen Servern betreiben, um Datenschutz- und Compliance-Anforderungen zu erfüllen.
Multi-Agenten-Systeme entwickeln: Sie können KI-Agenten erstellen, die automatisierte Aufgaben übernehmen, sich flexibel anpassen und Workflows in ihrem Unternehmen effizienter gestalten.
Wettbewerbsvorteile nutzen: Durch den Einsatz intelligenter, personalisierter LLM-Anwendungen können Unternehmen ihre Prozesse optimieren, Kosten senken und innovative KI-gestützte Produkte und Services entwickeln.
Unternehmen benötigen maßgeschneiderte Lösungen, um LLMs effizient und vor allem sicher in ihre Prozesse zu integrieren. Denn vorgefertigte Modelle wie ChatGPT, Mistral oder Gemini stoßen an ihre Grenzen, wenn es um unternehmensspezifische Anpassungen, Datenschutz und proprietäre Daten geht.
Lokale LLMs bieten dabei mehr Kontrolle über sensible Daten, während Feintuning und Retrieval-Augmented Generation (RAG) präzisere und kosteneffizientere Modelle ermöglichen.
In diesem praxisorientierten Workshop lernen Sie, eigene LLM-Lösungen zu entwickeln, die auf die spezifischen Anforderungen Ihres Unternehmens zugeschnitten sind. Dabei lernen Sie Techniken kennen, mit denen LLMs auf lokalen Rechnern oder sicheren Plattformen betrieben werden können, um Datenschutzanforderungen zu erfüllen. Ein weiterer Schwerpunkt des Workshops ist die Integration von Multi-Agenten-Systemen, die Prozesse automatisieren und die Effizienz im Unternehmen steigern können.
Der Workshop gibt einen Überblick über Modelle und Plattformen wie Ollama und LM-Studio. Praktische Übungen zeigen, wie man Modelle durch Quantisierung und Feintuning optimiert und wie man Retrieval-Augmented Generation (RAG) einsetzt, um präzisere und kontextbezogene Antworten zu generieren.
Nach dem Workshop sind Sie in der Lage, Large Language Models gezielt für Ihre individuellen Anforderungen einzusetzen. Sie verstehen die Grundlagen der Modellanpassung und -personalisierung, können eigene Daten integrieren und wissen, wie Sie LLMs lokal betreiben, um Datenschutzanforderungen zu erfüllen. Zudem sind Sie befähigt, Multi-Agenten-Systeme zu entwickeln, Prozesse zu automatisieren und Workflows in Ihrem beruflichen Umfeld zu verbessern.
Theorie:
Was sind Large Language Models/Transformer ? Überblick über Architektur, Funktionsweise und bekannte Modelle (GPT, Llama, Mistral).
Unterschiede zwischen generischen und spezialisierten Modellen.
Einführung in die Personalisierung: Feintuning, Prompt Engineering und Parameter-Effizienztechniken (PEFT, LoRA).
Praxis:
Feintuning eines LLM auf einer Beispiel-Domäne mit Hugging Face.
Experimentieren mit Prompts, um die Ausgabe für spezifische Aufgaben zu optimieren.
Ziel: Verstehen, wie LLMs arbeiten und wie sie durch einfache Anpassungen personalisiert werden können.
Theorie:
Warum Datenintegration? Nutzung eigener Wissensquellen zur Erweiterung von LLMs.
Grundlagen von RAG: Aufbau von Vektordatenbanken und deren Einsatz mit LLMs.
Advanced RAG: Optimierung von Retrieval-Strategien zur kontextsensitiven und präzisen Antwortgenerierung (z. B. Hyde, Fusion-RAG, Re-Ranking)
Multi-Modal RAG: Verarbeitung von Texten, PDFs mit Tabellen und Bildern, um multi-modale Informationsquellen für LLMs nutzbar zu machen (z. B. Unstructured)
Technische Einführung in Tools wie LangChain, ChromaDB oder Pinecone.
Praxis:
Aufbau einer Vektordatenbank und Anbindung eines LLM.
Implementierung einer Frage-Antwort-Anwendung auf Basis eigener Dokumente.
Ziel: Die Teilnehmenden lernen, wie sie eigene Daten mit einem LLM nutzen können, um spezifische Anfragen zu beantworten.
Theorie:
Vorteile der lokalen Nutzung: Datenschutz, Kostenkontrolle und Flexibilität.
Überblick über Tools und Frameworks für lokale LLMs (z. B. Ollama, LM-Studio).
Hardwareanforderungen und Optimierungsmöglichkeiten für lokale Deployments.
Praxis:
Einrichtung eines lokalen LLM auf dem eigenen Rechner oder Server.
Vergleich zwischen Cloud- und lokalen Modellen anhand von Praxisbeispielen.
Ziel: Teilnehmende können ein LLM lokal installieren und betreiben, um datengetriebene Projekte unabhängig und sicher umzusetzen.
Theorie:
Einführung in Multi-Agenten-Systeme: Was sie sind und wie sie mit LLMs zusammenarbeiten?
Mögliche Anwendungsfälle: Automatisierung von Arbeitsprozessen, Kommunikation, Datenanalyse.
Technologische Grundlagen für Multi-Agenten-Frameworks (z. B. LangChain-Agenten, LangGraph).
Praxis:
Erstellung eines Multi-Agenten-Systems, das eine Aufgabe autonom priorisiert und ausführt (z. B. E-Mail-Sortierung, Berichtsanalyse, Auftragsabwicklung, Kundensupport).
Testen der Interaktion zwischen mehreren Agenten.
Ziel: Teilnehmende verstehen, wie Multi-Agenten-Systeme aufgebaut sind und können einfache Systeme zur Automatisierung erstellen.
Theorie:
Überblick über aktuelle Trends und zukünftige Entwicklungen bei LLMs (z. B. Autonome Agenten, RLHF, neue Modellarchitekturen (z.B. xLSTMs).
Praxis:
Individuelle Projektarbeit: Umsetzung eines eigenständigen Anwendungsfalls basierend auf den bisherigen Seminartagen.
Präsentation der Projekte und Feedback-Runde.
Ziel: Die Teilnehmenden setzen das Gelernte eigenständig um und entwickeln einen Anwendungsfall, den sie direkt in ihrer beruflichen Praxis nutzen können.
Dieser Workshop richtet sich an Technologie- und KI-Experten, Data Scientists, Machine Learning Engineers und Softwareentwickler, die Large Language Models (LLMs) praxisnah für ihr Unternehmen anpassen und einsetzen möchten.
Besonders profitieren
Unternehmen mit proprietären Daten, die KI-gestützt analysiert und genutzt werden sollen.
Entwickler und ML-Teams, die LLMs durch Feintuning, RAG oder Multi-Agenten-Techniken optimieren möchten.
IT- und Innovationsabteilungen, die LLMs lokal und sicher betreiben wollen (z. B. mit Ollama).
Fachleute aus Bereichen wie Finanzwesen, Gesundheitswesen oder Industrie, die KI-Anwendungen für spezifische Geschäftsprozesse entwickeln.
Nicht geeignet für KI-Einsteiger oder Anwender, die ausschließlich Out-of-the-Box-Lösungen ohne Anpassung nutzen möchten.
Kenntnisse in Python (z. B. Datenverarbeitung mit Pandas, TensorFlow und PyTorch)
Erfahrungen mit Machine Learning oder NLP
Eigener Laptop mit Internetzugang
Mindestens 8 GB RAM empfohlen (lokale Berechnungen sind begrenzt, Hauptfokus liegt auf Google Colab)
Google-Konto, um Google Colab zu nutzen
Für eine verbesserte Rechenleistung bei den Übungen wird empfohlen, einen kostenpflichtigen Google Colab Pro+ Account zu verwenden (https://colab.research.google.com/signup)
Python 3.9 oder höher (lokal für optionale Tests und Experimente)
Wichtige Bibliotheken wie Hugging Face Transformers, LangChain, ChromaDB, Pinecone, FAISS (werden in Colab bereitgestellt)
Ollama wird während des Workshops installiert und konfiguriert, sodass keine Vorkenntnisse erforderlich sind.
Der Workshop nutzt Google Colab für cloudbasierte Übungen, aber lokale Tests mit Ollama werden ebenfalls durchgeführt. Die Teilnehmer erhalten eine Schritt-für-Schritt-Anleitung zur Installation und Nutzung von Ollama auf ihrem Rechner.
Zur Workshop-Durchführung wird Zoom verwendet mittels eines DSGVO-konformen On-Premise-Connectors. Wir bitten Sie, ein Mikrofon oder Headset sowie einen aktuellen Browser zu nutzen.
Workshopunterlagen
Teilnahmebescheinigung
Ist die Durchführung der Veranstaltung aufgrund höherer Gewalt, wegen Verhinderung eines Referenten, wegen Störungen am Veranstaltungsort oder aufgrund zu geringer Teilnehmerzahl nicht möglich, werden die Teilnehmenden frühestmöglich informiert.
Die Teilnehmerzahl ist auf max. 16 Personen begrenzt.
Auf eine lange und erfolgreiche Laufbahn kann Dr. Franz-Josef Toelle zurückblicken. Er studierte Mathematik, promovierte in theoretischer Physik und unterrichtet bis heute an Universitäten. Seit über 25 Jahren beschäftigt er sich mit Deep Learning in Industrie und Forschung. Tätig ist Data Scientist Franz-Josef Toelle auch als Berater namhafter Firmen und Autor zahlreicher bekannter Publikationen.
Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.
Füllen Sie ganz einfach und bequem das Kontaktformular aus und wir werden Ihnen Ihre Fragen schnellstmöglich beantworten.
Telefonisch erreichbar: Mo – Fr | 08:30 – 16:00 Uhr