Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus
KI-Anwendungen, die nach außen kommunizieren und Zugriff auf Firmendaten haben, stellen eine neuen Angriffsvektor dar, etwa wenn KI-Agenten im Bewerbungsprozess E-Mails sichten. Bei unzureichender Absicherung, kann versteckter Code deinen HR-Agenten kapern.
Du vollziehst Prompt Injections und Jailbreaks praktisch nach.
Du kannst eine Verteidigung-in-der-Tiefe-Strategie für KI-Anwendungen entwerfen, die auf externen Sicherheitsmaßnahmen (Guardrails) aufbaut.
Du setzt automatisierte (Red-Teaming-)Tools ein, um die Sicherheit deiner KI-Anwendungen zu testen.
Unser Experte demonstriert praktisch, wie Prompt Injection und Jailbreaking funktionieren und welche Schäden diese Angriffe verursachen. Du lernst die OWASP Top 10 for LLM and Agentic Applications kennen und verstehst, worauf du bei der Nutzung von LLMs besonders achten solltest.
Du lernst das Konzept "Sicherheit außerhalb des Modells" kennen: Du erfährst, warum du einem Sprachmodell nie vertrauen darfst und wie externe Leitplanken (Guardrails) schützen, darunter Eingabe- und Ausgabefilter. Dafür lernst du Red-Teaming-Werkzeuge kennen, mit denen du deine KI-Anwendungen einem Stresstest unterziehst. Unser Experte geht dabei auch auf Frameworks zur Risikobewertung ein, etwa das AI Vulnerability Scoring System (AIVSS).
Administratoren und IT-Sicherheitsverantwortliche, die verstehen wollen, wie generative KI die Bedrohungslage verändert. Personen die, LLM-Systeme sicher bereitstellen und durch KI-Werkzeuge Zeit gewinnen wollen.
Grundlegendes Verständnis von IT-Sicherheit, Netzwerken, Webtechnologien sowie der Arbeit auf der Kommandozeile werden vorausgesetzt. Vorerfahrungen mit ChatGPT oder Cloud-Umgebungen erleichtern den Einstieg, sind aber nicht notwendig.
"Tödliche Dreierkombination" von Fähigkeiten nach Simon Willison: Zugriff auf unternehmensinterne Daten, Kontakt mit nicht vertrauenswürdigen Inhalten und die Fähigkeit, extern zu kommunizieren
Bedrohungsmodellierung von und Angriffe auf Sprachmodelle, Chatbots und Agenten: Von Prompt Injection bis Insecure Output Handling
OWASP Top 10 for Large Language Model Applications, Agentic Applications, weitere OWASP-Ressourcen und MITRE ATLAS
Jailbreaking und Red Teaming: Wie man KI-Modelle knackt und welche Tools dabei helfen, Lücken zu finden
Datenschutz beim Einsatz von KI-Anwendungen, die Drittanbieter entwickelt haben (z. B. Browser-Erweiterungen)
Angriffe auf das Model Context Protocol (MCP)
Sicherheit außerhalb des Modells: Warum Leitplanken (Guardrails) wie NeMo und Llama Guard wichtiger sind als das Modelltraining selbst
Frameworks zum sicheren Einsatz, etwa Googles Secure AI Framework (SAIF)
Einführung in das AI Vulnerability Scoring System (AIVSS) und Risikomanagement
Absichtlich verwundbare KI-Umgebungen
Frank Ully ist Principal Consultant Cybersecurity und Head of CORE bei Corporate Trust Business Rist & Crisis Management. Seit mehr als zehn Jahren beschäftigt er sich beruflich mit Informationssicherheit, zuletzt mit Fokus auf Entwicklungen in der offensiven IT-Security. Seine derzeitigen Schwerpunkte umfassen Active Directory, die Sicherheit öffentlicher Clouds und künstliche Intelligenz. Sein Wissen teilt Frank regelmäßig in Vorträgen, Webinaren, Schulungen und Artikeln, etwa in der Fachzeitschrift iX oder bei der heise academy. Damit hilft er Organisationen, Angreifer zu verstehen und sich effizient gegen sie zu verteidigen – auf dem neuesten Stand der Technik.

