Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus

heise academy Logo
Classroom-Sessions

KI-Security Grundlagen – Large Language Models und Transformer-Architektur verstehen

Wie bei jeder Technologie gilt: Bevor man KI sicher nutzen kann, muss man verstehen, wie sie grundlegend funktioniert. Diese Session legt dafür das technische Fundament.

Enterprise
Professional

KI-Security Grundlagen – Large Language Models und Transformer-Architektur verstehen

Enthalten im Classroom: KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes
Zum Classroom
Überblick

  • Du kannst die Funktionsweise und Einschränkungen von LLMs (etwa Halluzinationen und Rechenschwächen) technisch erklären.

  • Du verstehst den Unterschied zwischen einem KI-Modell und einem KI-System und benennst ihre jeweiligen Angriffsflächen.

  • Du bist in der Lage, verschiedene Reifegrade von KI-Anwendungen (vom Chatbot bis zum autonomen Agenten) und Organisationen einzuordnen.

Du erhältst in dieser Session einen strukturierten Überblick über die Evolution von einfachen statistischen Modellen hin zu modernen Large Language Models und der Transformer-Architektur. Unser Experte erklärt dabei, warum ChatGPT hervorragend Texte verfasst, aber bei mathematischen Berechnungen versagt. Diese technischen Eigenarten sind entscheidend für das Verständnis der Bedeutung für die Sicherheit.

Ein zentraler Fokus liegt auf der Unterscheidung zwischen KI-Modell und KI-System. Während das Modell den mathematischen Kern bildet, umfasst das System die gesamte Infrastruktur – und genau dort entstehen die meisten Sicherheitslücken.

Abschließend lernst du den KI-Lebenszyklus kennen und erfährst, warum Sicherheit schon bei der Datenauswahl beginnt. So erhältst du einen fundierten Einstieg, um die Fähigkeiten und Risiken der neuen Technologie realistisch einzuschätzen.

Zielgruppe

Administratoren und IT-Sicherheitsverantwortliche, die verstehen wollen, wie generative KI die Bedrohungslage verändert. Personen die, LLM-Systeme sicher bereitstellen und durch KI-Werkzeuge Zeit gewinnen wollen.

Voraussetzungen

Grundlegendes Verständnis von IT-Sicherheit, Netzwerken, Webtechnologien sowie der Arbeit auf der Kommandozeile werden vorausgesetzt. Vorerfahrungen mit ChatGPT oder Cloud-Umgebungen erleichtern den Einstieg, sind aber nicht notwendig.

Agenda

  • Kurze Geschichte der künstlichen Intelligenz: Von Machine Learning bis zu modernen LLMs

  • Technische Grundlagen von LLMs mit Generative Pre-trained Transformer (GPT)-Architektur

  • Sicherheitseigenschaften eines nicht-deterministischen Systems: Halluzinationen, Zustandslosigkeit und warum Kontext alles ist

  • Grundierung und Retrieval Augmented Generation (RAG)

  • Überblick über Sprachmodelle, mit Fokus auf extern bereitgestellte Modelle, die via API angesprochen werden

  • Modell der geteilten Verantwortung bei KI

  • Der KI-Lebenszyklus: Risiken in der Design-, Trainings- und Deployment-Phase

  • Von Automatisierung bis Autonomie: Automatisierung, KI-Automatisierung (Workflows) und KI-Agenten; Human in the Loop

  • Arten von LLMs aus Unternehmenssicht: Interne LLM-Systeme, öffentliche Chatbots und Konsumenten-LLMs

  • Reifegradmodelle für KI-Anwendungen

Foto von Frank Ully

Frank Ully

Principal Consultant Cybersecurity & Head of CORE | Corporate Trust Business Risk & Crisis Management GmbH

Zum Profil