Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus

heise academy Logo
Classroom-Sessions

LLM-Ökosystem sicher aufbauen – mehr Produktivität und vertrauenswürdige Infrastruktur

Schatten-KI entwickelt sich zur neuen Schatten-IT in Unternehmen. Diese Session zeigt dir, wie du unkontrollierte KI-Nutzung eindämmst und stattdessen sichere, produktive Alternativen für den professionellen KI-Einsatz etablierst.

Enterprise
Professional

LLM-Ökosystem sicher aufbauen – mehr Produktivität und vertrauenswürdige Infrastruktur

Enthalten im Classroom: KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes
Zum Classroom
Überblick

  • Du entscheidest fundiert zwischen Cloud-KI und lokalem Betrieb im Unternehmen.

  • Du konfigurierst MCP und APIs sicher für KI-Assistenten und -Agenten.

  • Du setzt RAG-Systeme sicher für den Unternehmenseinsatz auf.

Unser Experte vergleicht das Ökosystem aus proprietären Modellen (OpenAI, Anthropic und besonders Google) mit Open-Source-Alternativen. Du lernst, wann lokales Hosting von LLMs sinnvoll ist – insbesondere für die Analyse sensibler Daten ohne Cloud-Übertragung – und wann Cloud-basierte Lösungen die bessere Wahl darstellen.

Ein Schwerpunkt liegt auf modernen KI-Architekturen, etwa Retrieval Augmented Generation (RAG) und dem Model Context Protocol (MCP), die KI-Systeme mit deinen Unternehmensdaten verbinden. Diese Technologien bieten enormes Potenzial, bergen jedoch ebenso große Sicherheitsrisiken: Falsch implementiert hebeln sie bestehende Zugriffsberechtigungen aus. Die Session vermittelt dir, wie du APIs effektiv absicherst und robuste Authentifizierung für KI-Agenten implementierst.

Zielgruppe

Administratoren und IT-Sicherheitsverantwortliche, die verstehen wollen, wie generative KI die Bedrohungslage verändert. Personen die, LLM-Systeme sicher bereitstellen und durch KI-Werkzeuge Zeit gewinnen wollen.

Voraussetzungen

Grundlegendes Verständnis von IT-Sicherheit, Netzwerken, Webtechnologien sowie der Arbeit auf der Kommandozeile werden vorausgesetzt. Vorerfahrungen mit ChatGPT oder Cloud-Umgebungen erleichtern den Einstieg, sind aber nicht notwendig.

Agenda

  • Schatten-KI im Unternehmen aufspüren

  • Strategie: Kaufen (Microsoft Copilot, ChatGPT Enterprise) oder Selbermachen (Ollama, vLLM)?

  • Google Workspace mit Gemini-Modellen (Gemini, Gemini Deep Research) als Start für ein vertrauenswürdiges Konsumenten-LLM und Anbindung an Entra ID

  • Schnelleinstieg in Retrieval Augmented Generation (RAG) mit NotebookLM

  • Model Context Protocol (MCP): Chancen und Sicherheitsrisiken

  • KI-Plattformen der Cloud-Riesen: Azure AI Foundry, Google Vertex und AWS Bedrock

  • Eigenes Unternehmens-ChatGPT hosten mit LibreChat und Open WebUI

  • Daten schützen: Anonymisierung mit Presidio

Foto von Frank Ully

Frank Ully

Principal Consultant Cybersecurity & Head of CORE | Corporate Trust Business Risk & Crisis Management GmbH

Zum Profil