Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus
Wie bei jeder Technologie gilt: Bevor man KI sicher nutzen kann, muss man verstehen, wie sie grundlegend funktioniert. Diese Session legt dafür das technische Fundament.
Du kannst die Funktionsweise und Einschränkungen von LLMs (etwa Halluzinationen und Rechenschwächen) technisch erklären.
Du verstehst den Unterschied zwischen einem KI-Modell und einem KI-System und benennst ihre jeweiligen Angriffsflächen.
Du bist in der Lage, verschiedene Reifegrade von KI-Anwendungen (vom Chatbot bis zum autonomen Agenten) und Organisationen einzuordnen.
Du erhältst in dieser Session einen strukturierten Überblick über die Evolution von einfachen statistischen Modellen hin zu modernen Large Language Models und der Transformer-Architektur. Unser Experte erklärt dabei, warum ChatGPT hervorragend Texte verfasst, aber bei mathematischen Berechnungen versagt. Diese technischen Eigenarten sind entscheidend für das Verständnis der Bedeutung für die Sicherheit.
Ein zentraler Fokus liegt auf der Unterscheidung zwischen KI-Modell und KI-System. Während das Modell den mathematischen Kern bildet, umfasst das System die gesamte Infrastruktur – und genau dort entstehen die meisten Sicherheitslücken.
Abschließend lernst du den KI-Lebenszyklus kennen und erfährst, warum Sicherheit schon bei der Datenauswahl beginnt. So erhältst du einen fundierten Einstieg, um die Fähigkeiten und Risiken der neuen Technologie realistisch einzuschätzen.
Administratoren und IT-Sicherheitsverantwortliche, die verstehen wollen, wie generative KI die Bedrohungslage verändert. Personen die, LLM-Systeme sicher bereitstellen und durch KI-Werkzeuge Zeit gewinnen wollen.
Grundlegendes Verständnis von IT-Sicherheit, Netzwerken, Webtechnologien sowie der Arbeit auf der Kommandozeile werden vorausgesetzt. Vorerfahrungen mit ChatGPT oder Cloud-Umgebungen erleichtern den Einstieg, sind aber nicht notwendig.
Kurze Geschichte der künstlichen Intelligenz: Von Machine Learning bis zu modernen LLMs
Technische Grundlagen von LLMs mit Generative Pre-trained Transformer (GPT)-Architektur
Sicherheitseigenschaften eines nicht-deterministischen Systems: Halluzinationen, Zustandslosigkeit und warum Kontext alles ist
Grundierung und Retrieval Augmented Generation (RAG)
Überblick über Sprachmodelle, mit Fokus auf extern bereitgestellte Modelle, die via API angesprochen werden
Modell der geteilten Verantwortung bei KI
Der KI-Lebenszyklus: Risiken in der Design-, Trainings- und Deployment-Phase
Von Automatisierung bis Autonomie: Automatisierung, KI-Automatisierung (Workflows) und KI-Agenten; Human in the Loop
Arten von LLMs aus Unternehmenssicht: Interne LLM-Systeme, öffentliche Chatbots und Konsumenten-LLMs
Reifegradmodelle für KI-Anwendungen
Frank Ully ist Principal Consultant Cybersecurity und Head of CORE bei Corporate Trust Business Rist & Crisis Management. Seit mehr als zehn Jahren beschäftigt er sich beruflich mit Informationssicherheit, zuletzt mit Fokus auf Entwicklungen in der offensiven IT-Security. Seine derzeitigen Schwerpunkte umfassen Active Directory, die Sicherheit öffentlicher Clouds und künstliche Intelligenz. Sein Wissen teilt Frank regelmäßig in Vorträgen, Webinaren, Schulungen und Artikeln, etwa in der Fachzeitschrift iX oder bei der heise academy. Damit hilft er Organisationen, Angreifer zu verstehen und sich effizient gegen sie zu verteidigen – auf dem neuesten Stand der Technik.

