Du suchst deine bereits erworbenen Lerninhalte? Dann geht es hier entlang: Zum academy Campus

heise academy Logo
Classrooms

KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes

Künstliche Intelligenz verändert die IT-Sicherheit und schafft neue Herausforderungen. Wer die neuen Angriffsflächen – und Möglichkeiten – nicht kennt, verliert den Anschluss. Dieser Classroom führt von den technischen Grundlagen über KI-Assistenten bis zu autonomen Agenten, zeigt aber auch die derzeitigen Grenzen der Technologie auf. Du lernst, wie Angreifende generative KI nutzen und wie du Large Language Models (LLM) selbst einsetzt, um deine Verteidigung zu automatisieren und deine Umgebungen abzusichern.

Im Professional und Enterprise Pass enthalten

Lernen von den besten IT-Experten: Interaktiv und live mit academy Classrooms

Mehr Infos & Kauf
Sie haben bereits einen academy Pass?
Enterprise
Professional

KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes

16.04. – 12.05.2026
5 Live-Sessions inklusive Aufzeichnung
Online
09:00 – 13:00 Uhr
895,00 *
Ticket wählen

Dieser Classroom hat bereits stattgefunden. Die Aufzeichnung steht Nutzer des Professional Pass und Enterprise Pass im Campus zur Verfügung: Zum academy Campus

Überblick

  • Du durchschaust die Methoden der Angreifer und führst KI-unterstützt selbst bestimmte Angriffsschritte durch, bevor es Kriminelle tun.

  • Du nutzt generative KI, um die Verteidigung deiner Organisation zu automatisieren.

  • Du integrierst KI-Funktionen sicher in dein Unternehmen, kennst dabei die Grenzen und Schwachstellen der Technik und stoppst riskante Schatten-KI.

Künstliche Intelligenz verändert die Spielregeln der IT-Sicherheit. Dieser Classroom blickt auf die Schnittmenge von Security und generativer KI. Du erfährst, was Sprachmodelle wirklich leisten und warum ein sicheres Modell noch lange kein sicheres System darstellt.

Du lernst den gesamten Lebenszyklus vertrauenswürdiger KI kennen und erfährst, wie du Modelle auswählst. Du verstehst, wie du mit RAG (Retrieval Augmented Generation) und dem Model Context Protocol (MCP) eine Infrastruktur aufbaust, die den Datenschutz achtet. Ein Schwerpunkt des Classrooms liegt auf der Janusköpfigkeit der Technik: Angreifer finden mit "Vibe Hacking" Schwachstellen so schnell und einfach wie noch nie, gleichzeitig können aber auch Verteidiger massiv aufrüsten.

Statt blind auf Vollautomatisierung zu setzen, erfährst du, wie KI-Assistenten deine Arbeit unterstützen (Augmentierung). Du lernst, mit Coding-Agenten bestehende Tools zu verbinden und eigene Sicherheitswerkzeuge zu bauen, deine Angriffsfläche per OSINT zu verringern und dein Patch-Management zu beschleunigen. In späteren Sessions lernst du deine LLM-Systeme gegen Prompt Injections zu härten und errichtest wirksame Leitplanken zu ihrem Schutz (Guardrails).

Mit einer Mischung aus theoretischem Fundament und Demos aktueller Open-Source-Werkzeuge macht dich dieser Classroom fit für das Zeitalter der KI-gestützten Sicherheit.

Zielgruppe

Administratoren und IT-Sicherheitsverantwortliche, die verstehen wollen, wie generative KI die Bedrohungslage verändert. Personen die, LLM-Systeme sicher bereitstellen und durch KI-Werkzeuge Zeit gewinnen wollen.

Voraussetzungen

Grundlegendes Verständnis von IT-Sicherheit, Netzwerken, Webtechnologien sowie der Arbeit auf der Kommandozeile werden vorausgesetzt. Vorerfahrungen mit ChatGPT oder Cloud-Umgebungen erleichtern den Einstieg, sind aber nicht notwendig.

Agenda

  • Technische Grundlagen: Vom Transformer-Modell zum autonomen KI-Agenten und warum Sprachmodelle schlecht im Rechnen sind

  • Offensive KI: Wie "Vibe Coding" und Agenten die Bedrohungslage durch skalierbare Angriffe vergrößern

  • Defensive KI: So schreibst du maßgeschneiderte Werkzeuge selbst und verbindest bestehende Lösungen

  • Vertrauenswürdige Infrastruktur: Lokale Modelle, Retrieval Augmented Generation (RAG) und Model Context Protocol (MCP)

  • KI-Härtung: Prompt Injection, Jailbreaks und Strategien für Sicherheit außerhalb des Modells (Guardrails)

  • Werkzeugkasten: Open-Source-Tools für Implementierung, Angriff und Verteidigung

Foto von Frank Ully

Frank Ully

Principal Consultant Cybersecurity & Head of CORE | Corporate Trust Business Risk & Crisis Management GmbH

Zum Profil

KI in der Cybersecurity – Angriff und Verteidigung im Zeitalter von LLMs und Deepfakes

16.04. – 12.05.2026
5 Live-Sessions inklusive Aufzeichnung
Online
  • KI-Security Grundlagen – Large Language Models und Transformer-Architektur verstehen
    16.04.2026
    09:00 – 13:00 Uhr
  • OWASP Top 10 für LLM – Sprachmodelle und KI-Agenten sicher implementieren
    21.04.2026
    09:00 – 13:00 Uhr
  • LLM-Ökosystem sicher aufbauen – mehr Produktivität und vertrauenswürdige Infrastruktur
    28.04.2026
    09:00 – 13:00 Uhr
  • Generative KI im Cybercrime – Wie Hacker künstliche Intelligenz für Malware und Social Engineering nutzen
    05.05.2026
    09:00 – 13:00 Uhr
  • Generative künstliche Intelligenz für Verteidiger und das Purple Team
    12.05.2026
    09:00 – 13:00 Uhr
895,00 *
Ticket buchen

Dieser Classroom hat bereits stattgefunden. Die Aufzeichnung steht Nutzer des Professional Pass und Enterprise Pass im Campus zur Verfügung: Zum academy Campus

Du hast Fragen zu unseren academy Classrooms? Wir helfen dir gern weiter.

Füllen Sie ganz einfach und bequem das Kontaktformular aus und wir werden Ihnen Ihre Fragen schnellstmöglich beantworten.

heise academy Content-Team

content@heise-academy.de

+49 511 5352 599

Telefonisch erreichbar: Mo – Fr | 8.30 – 16 Uhr

Unsere Antworten auf die häufigsten Fragen

Kontaktformular

Bei Betätigen des Absenden-Buttons verarbeiten wir die von Ihnen angegebenen personenbezogenen Daten ausschließlich für den Zweck Ihrer Anfrage. Weitere Informationen zum Datenschutz finden Sie in unserer Datenschutzerklärung.