Sie suchen Ihre bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus

heise academy Logo
Workshops
iX – Magazin für professionelle IT

Generative KI nach Maß: eigene Daten integrieren, LLMs lokal betreiben, Multi-Agenten-Systeme entwickeln

Dieser Workshop vermittelt Data Scientists und ML-Engineers, wie sie LLMs lokal betreiben, gezielt an spezifische Anforderungen im Unternehmen anpassen, eigene Daten mit RAG integrieren und Prozesse mit Multi-Agenten-Systemen zuverlässig automatisieren.

Generative KI nach Maß: eigene Daten integrieren, LLMs lokal betreiben, Multi-Agenten-Systeme entwickeln

+ 1 weitere Option

Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.

Überblick

Vorgefertigte Sprachmodelle wie ChatGPT, Mistral oder Gemini stoßen beim Einsatz im Unternehmen schnell an ihre Grenzen. Daher sind maßgeschneiderte Anwendungen erforderlich, um LLMs effizient und sicher in die Prozesse von Firmen zu integrieren.

Nach Abschluss des fünftägigen Workshops können Sie:

  • große Sprachmodelle mit Feintuning und Modellpersonalisierung gezielt an die individuellen Anforderungen Ihres Unternehmens anpassen

  • eigene Daten durch Finetuning und Retrieval-Augmented Generation in Sprachmodelle integrieren

  • Datenschutz- und Compliance-Anforderungen erfüllen und so Sprachmodelle sicher auf eigenen Servern betreiben

  • Multi-Agenten-Systeme entwickeln, die automatisierte Aufgaben übernehmen, sich flexibel anpassen und Workflows in Ihrem Unternehmen effizienter gestalten

Inhalte

In diesem praxisorientierten Workshop erhalten Sie das nötige Wissen, um eigene LLM-Lösungen zu entwickeln, die auf die spezifischen Anforderungen Ihres Unternehmens zugeschnitten sind. Dabei lernen Sie Techniken kennen, mit denen große Sprachmodelle auf lokalen Rechnern oder sicheren Plattformen betrieben werden können, um Datenschutzanforderungen zu erfüllen.

Ein weiterer Schwerpunkt des Workshops ist die Integration von Multi-Agenten-Systemen, die Prozesse automatisieren und die Effizienz im Unternehmen steigern können. Ebenfalls erhalten Sie einen Überblick über Modelle und Plattformen wie Ollama und LM-Studio. Zusätzlich lernen Sie anhand einer detaillierten Schritt-für-Schritt-Anleitung, wie Sie Ollama auf Ihrem Rechner installieren, einrichten und verwenden.

Weiterhin bekommen Sie in praktischen Übungen einen Einblick, wie sich Modelle durch Quantisierung und Feintuning optimieren lassen. Außerdem lernen SIe, wie Sie Retrieval-Augmented Generation (RAG) einsetzen können, um präzisere und kontextbezogene Antworten zu generieren. Abschließend wenden Sie die Inhalte eigenständig an und entwickeln einen Anwendungsfall, den Sie in Ihrer beruflichen Praxis nutzen können.

Themen in der Übersicht

  • 1. Arbeitsweise großer Sprachmodelle verstehen und LLMs personalisieren

  • 2. eigene Daten mit Retrieval Augmented Generation (RAG) in LLMs integrieren

  • 3. große Sprachmodelle lokal installieren und betreiben

  • 4. LLMs mit Multi-Agenten-Systeme automatisieren

  • 5. in die Zukunft großer Sprachmodelle blicken

Zielgruppe

  • KI-Experten und Data Scientists, die proprietäre Daten im Unternehmen KI-gestützt analysieren und nutzen wollen

  • Softwareentwickler und ML-Engineers, die LLMs durch Feintuning, RAG oder Multi-Agenten-Techniken optimieren und für spezifische Anforderungen im Unternehmen konfigurieren möchten

  • IT- und Innovationsverantwortliche, die LLMs in ihrem Unternehmen lokal und sicher betreiben wollen (z. B. mit Ollama)

Voraussetzungen

Vorkenntnisse

  • Kenntnisse in Python (z. B. Datenverarbeitung mit Pandas, TensorFlow und PyTorch)

  • Erfahrungen mit Machine Learning oder Natural Language Processing

technische Voraussetzungen

  • Computer mit mindestens 8 GB Arbeitsspeicher

  • Google-Konto, um Google Colab zu nutzen, zusätzlich empfohlen: kostenpflichtiger Google Colab Pro+ Account (Colab Paid Services Pricing)

  • Python 3.9 oder höher

  • zentrale Bibliotheken wie Hugging Face Transformers, LangChain, ChromaDB, Pinecone, FAISS

Leistungen Ihres Workshoptickets

  • Sie erhalten Ihre Schulungsunterlagen in digitaler Form. So können Sie selbst entscheiden, ob Sie diese elektronisch bearbeiten und archivieren oder lieber ausdrucken möchten.

  • Mit der Teilnahmebescheinigung unterstreichen Sie Ihr Weiterbildungsengagement und verbessern Ihre Perspektiven für interne Karriereschritte oder neue berufliche Wege.

Durchführung

  • Sie nehmen über Zoom am Workshop teil, wobei die Verbindung über einen lokal gehosteten, DSGVO-konformen On-Premises-Connector erfolgt.

  • Im Workshop nutzen SIe Google Colab für cloudbasierte Übungen, lokale Tests erfolgen mit Ollama.

  • Um einen intensiven Austausch zwischen dem Trainer und den Teilnehmenden zu gewährleisten, erfolgt der Workshop in Gruppen von höchstens 16 Personen.

  • Sollte die Durchführung der Veranstaltung aufgrund höherer Gewalt, der Verhinderung eines Referenten, von Störungen am Veranstaltungsort oder wegen zu geringer Teilnehmerzahl nicht möglich sein, werden die Teilnehmenden so früh wie möglich informiert.

Foto von Dr. Franz-Josef Toelle

Dr. Franz-Josef Toelle

Data Scientist, Managing Director, Lehrbeauftragter | Opex Analytics, FHDW 

Zum Profil

Generative KI nach Maß: eigene Daten integrieren, LLMs lokal betreiben, Multi-Agenten-Systeme entwickeln

Dieser Workshop hat bereits stattgefunden. Eine Liste aller kommenden Workshops finden Sie hier.

Haben Sie Fragen zu unseren Workshops? Wir helfen Ihnen gern weiter.

Füllen Sie ganz einfach und bequem das Kontaktformular aus und wir werden Ihnen Ihre Fragen schnellstmöglich beantworten.

Profilbild von Team  Workshops

Team Workshops

workshops@heise-academy.de

+49 511 5352 8604

Telefonisch erreichbar: Mo – Fr | 08:30 – 16:00 Uhr

Unsere Antworten auf die häufigsten Fragen

Kontaktformular

Bei Betätigen des Absenden-Buttons verarbeiten wir die von Ihnen angegebenen personenbezogenen Daten ausschließlich für den Zweck Ihrer Anfrage. Weitere Informationen zum Datenschutz finden Sie in unserer Datenschutzerklärung.