Toolkit für KI in der Cybersicherheit

Ressourcen für Ausbilder im Bereich Cybersicherheit

Einführung

Künstliche Intelligenz (KI) verändert die Cybersicherheitslandschaft rapide, sowohl als Werkzeug zur Verteidigung als auch als Waffe zum Angriff. Für die Lehrkräfte ergibt sich aus dieser Doppelrolle die dringende Notwendigkeit, die Studierenden nicht nur darauf vorzubereiten, KI für den Schutz zu nutzen, sondern auch zu verstehen, wie Gegner sie bei Angriffen ausnutzen können.

Auf der defensiven Seite ist KI bereits in professionelle Sicherheitsumgebungen eingebettet und wirkt sich auf alle Phasen des Lebenszyklus von Cybervorfällen aus (z. B. Prävention, Vorbereitung, Reaktion und Wiederherstellung). Sie unterstützt die Protokollanalyse, die Erkennung von Anomalien, die Untersuchung von Malware und sogar Awareness-Schulungen und bietet Verteidigern mehr Geschwindigkeit, Genauigkeit und Skalierbarkeit. Auch im Unterricht eröffnet KI neue Möglichkeiten, indem sie Bewertungen automatisiert, Fallstudien erstellt, reale Vorfälle simuliert und interaktive Übungen entwickelt, die den Schülern helfen, komplexe Cybersicherheitskonzepte besser zu verstehen.

Gleichzeitig treibt die KI eine neue Generation offensiver Cyberoperationen voran. Böswillige Akteure setzen generative KI als Waffe ein, um die Aufklärung zu automatisieren, Phishing-Kampagnen zu personalisieren, die Entdeckung von Schwachstellen zu beschleunigen oder adaptive Malware einzusetzen. Diese Umgestaltung der Cyber-Kill-Chain hat das Ausmaß und die Raffinesse von Angriffen weltweit erhöht, von Ransomware bis hin zu Deepfakes und Schwarm-Malware. KI ist somit sowohl ein Ermöglicher von Cyberangriffen als auch selbst ein Ziel von Angreifern, wobei Schwachstellen wie Datenvergiftung und gegnerische Beispiele neue Risiken darstellen.

Dieses Toolkit wurde entwickelt von Virtual Routes als Teil der Programm für Cybersicherheitsseminare mit Unterstützung von Google.orgum Lehrkräfte und Studierende mit Ressourcen in einem sich ständig weiterentwickelnden Bereich zu versorgen. Es basiert auf einer Umfrage unter den teilnehmenden Universitäten und bietet Materialien zum Verständnis der Auswirkungen von KI auf die Cybersicherheit, wobei ihre doppelte Rolle als defensives und offensives Instrument dargestellt wird.

Auswirkungen der KI auf die Cybersicherheitsfähigkeiten

Die Europäischer Rahmen für Cybersicherheitskompetenzen (ECSF) werden zwölf Schlüsselrollen im Bereich der Cybersicherheit sowie die in diesem Sektor erforderlichen Aufgaben, Fähigkeiten, Kenntnisse und Kompetenzen definiert. Diese Rollen reichen von technischen Funktionen wie Threat Intelligence und Penetrationstests bis hin zu umfassenderen Aufgaben wie Risikomanagement und Bildung. Wir haben fünf Hauptaspekte identifiziert, in denen sich KI auf die für diese Rollen erforderlichen Fähigkeiten und Kompetenzen auswirkt:

Datenanalyse und Bedrohungsanalyse

ECSF: Spezialist für die Aufklärung von Cyber-Bedrohungen; Ermittler für digitale Forensik

LLMs können die Erfassung, Korrelation und Zusammenfassung großer Mengen von Bedrohungsberichten, Protokollen und Kompromissindikatoren beschleunigen. Die Analysten müssen die Ergebnisse immer noch validieren, aber ihr Schwerpunkt verlagert sich von der wiederholten Analyse zur kritischen Interpretation.

Erkennung von und Reaktion auf Vorfälle

ECSF: Cyber Incident Responder

KI kann bei der Erkennung von Anomalien, der Triage und der Erstmeldung helfen. Fähigkeiten zur Validierung von Warnungen, zur Kontextualisierung von Vorfällen und zur Entscheidung über verhältnismäßige Reaktionen werden immer wichtiger.

Risikobewertung und Einhaltung der Vorschriften

ECSF: Cyber Legal, Policy & Compliance Officer; Cybersecurity Risk Manager; Cybersecurity Auditor

KI kann die automatische Klassifizierung sensibler Daten und eine vorläufige Risikobewertung unterstützen. Praktiker müssen beurteilen, ob KI-gesteuerte Ergebnisse mit den gesetzlichen und organisatorischen Anforderungen übereinstimmen.

Sichere Entwicklung und Codeüberprüfung

ECSF: Cybersecurity-Implementierer; Cybersecurity-Architekt; Penetrationstester

KI-gestütztes Code-Scanning hebt unsichere Muster hervor und schlägt Korrekturen vor. Fachleute sind weiterhin dafür verantwortlich, sichere Kodierungspraktiken zu gewährleisten und das Risiko von KI-Halluzinationen oder Fehlalarmen zu mindern, da KI auch unsicheren Code erzeugen kann.

Bildung und Bewusstsein

ECSF: Ausbilder im Bereich der Cybersicherheit; Forscher im Bereich der Cybersicherheit

LLMs ermöglichen die Erstellung adaptiver Trainingsszenarien, synthetischer Datensätze und automatisierter Rückmeldungen. Die Fähigkeiten der Lehrkräfte entwickeln sich in Richtung Kuratierung, Validierung und verantwortungsvolle Einbindung von KI-Ressourcen in Lehrpläne.

KI-Kernkompetenzen für Cybersicherheit

Der allgegenwärtige Einsatz von KI erfordert von allen Cybersicherheitsexperten, unabhängig von ihrer Funktion, die Entwicklung neuer Fähigkeiten, die zu einem verantwortungsvollen, anpassungsfähigen und effektiven Einsatz von KI-Tools beitragen. Diese KI-Kernkompetenzen gehen über die Vertrautheit mit spezifischen Tools hinaus und konzentrieren sich stattdessen auf die grundlegenden Fähigkeiten, die für eine effektive Arbeit in diesem sich schnell entwickelnden Umfeld erforderlich sind:

1. Grundlegendes Verständnis
  • KI-Kenntnisse die Fähigkeiten und Grenzen der KI zu verstehen und sie sicher in Arbeitsabläufe zu integrieren, ohne sich zu sehr darauf zu verlassen oder falsches Vertrauen zu haben.
  • Ethisches Bewusstsein Ermittlung von Risiken in Bezug auf Voreingenommenheit, Datenschutz, Rechenschaftspflicht und Sicherheit, um sicherzustellen, dass KI-Systeme so eingesetzt werden, dass die beruflichen und gesellschaftlichen Standards gewahrt bleiben.
2. Bewertung und Aufsicht
  • Kritische Bewertung KI-generierte Ergebnisse anhand von vertrauenswürdigen Quellen und kontextbezogenem Fachwissen zu bewerten und zu erkennen, wann eine weitere Validierung oder menschliche Beurteilung erforderlich ist.
  • Erklärbarkeit und Transparenz KI-Ergebnisse zu interpretieren, "Black-Box"-Modelle zu hinterfragen und die Ergebnisse sowohl technischen als auch nicht-technischen Stakeholdern klar zu vermitteln und so das Vertrauen in KI-gestützte Entscheidungen zu stärken.
  • Resilienz und menschliche Aufsicht Sicherheitsvorkehrungen zu treffen, die ein übermäßiges Vertrauen in die Automatisierung verhindern, robuste Sicherheitsvorkehrungen gewährleisten und die menschliche Verantwortung für kritische Entscheidungen bewahren.
3. Risiko- und Datenmanagement
  • Datenverwaltung die Qualität, Vielfalt und Sicherheit der in KI-Systemen verwendeten Daten zu gewährleisten, da eine schlechte Datenverwaltung zu systemischen Schwachstellen führen kann.
  • AI-Risikomanagement KI-spezifische Risiken wie Halluzinationen, gegnerische Manipulationen, unsichere Codegenerierung und Datenvergiftung zu antizipieren und abzuschwächen, indem diese Überlegungen in einen breiteren Rahmen für Cyberrisiken eingebettet werden.
4. Zukunftsorientierte Anpassungsfähigkeit
  • Kontinuierliches Lernen um ihre Kenntnisse zu aktualisieren, neue Bedrohungen zu beobachten und sich mit neuen Entwicklungen bei KI-Anwendungen für die Cybersicherheit zu befassen.
  • Denken in Szenarien und Vorausschau zu antizipieren, wie Fortschritte in der KI die technischen, organisatorischen und strategischen Ebenen der Cybersicherheit verändern können, und Fachleute darauf vorzubereiten, proaktiv auf künftige Herausforderungen zu reagieren.
5. Zusammenarbeit und Kommunikation
  • Interdisziplinäre Zusammenarbeit wirksame Zusammenarbeit mit Experten aus den Bereichen Recht, Politik, Psychologie und Ethik, in der Erkenntnis, dass der verantwortungsvolle Einsatz von KI Perspektiven erfordert, die über rein technische Bereiche hinausgehen.
  • Kommunikation und vertrauensbildende Maßnahmen KI-gestützte Entscheidungen klar und nuanciert zu erläutern und so das Vertrauen aller Beteiligten zu erhalten.

Die KI-getriebene Automatisierung von sich wiederholenden oder geringwertigen Aufgaben hat dringende Fragen über die Veränderung der Belegschaft und die mögliche Verdrängung von Arbeitsplätzen aufgeworfen. Während jedoch einige Aufgaben von Analysten abnehmen könnten, entstehen neue Anforderungen in Bezug auf die Überwachung von KI-Ergebnissen, die Validierung von Ergebnissen und den Umgang mit KI-spezifischen Risiken wie Halluzinationen, unsichere Codegenerierung oder feindliche Manipulation. Anstatt Cybersecurity-Rollen zu eliminieren, verschiebt KI das Qualifikationsprofil in Richtung Aufsicht, Steuerung und Zusammenarbeit zwischen Mensch und KI.

Ethischer und verantwortungsvoller Einsatz von KI in der Cyberabwehr

Durch die Optimierung von Zeit, Effizienz und Ressourcen ermöglicht es KI den Verteidigern, mit weniger Mitteln mehr zu erreichen, die Einstiegshürden zu senken und die Fähigkeit zu verbessern, immer komplexere Cyber-Bedrohungen zu erkennen und auf sie zu reagieren. Da Cybervorfälle immer umfangreicher und raffinierter werden, ist KI aufgrund ihrer Fähigkeit, große Datenmengen zu verarbeiten, unverzichtbar. Eine übermäßige Abhängigkeit von KI-Ergebnissen führt jedoch zu neuen Schwachstellen, insbesondere wenn diese Ergebnisse ungenau sind oder das Verständnis für den Kontext fehlt:

Wichtige ethische Bedenken

Vorurteile und Diskriminierung
KI-Modelle, die auf voreingenommenen oder unausgewogenen Datensätzen trainiert wurden, können bestimmte Nutzergruppen oder Regionen zu Unrecht als bösartig einstufen. Zum Beispiel, Cybersicherheitsforscher trainierten ein System zur Erkennung von Eindringlingen anhand historischer Angriffsdaten und stellte fest, dass sie 30% mehr falsch-positive Ergebnisse für Nutzer in unterrepräsentierten Regionen produzierte, während ein ausgewogenes Training zu faireren Ergebnissen führte. Ebenso kann die KI bekannte Angriffsarten überbewerten und neue Bedrohungen unterschätzen, wodurch Abwehrlücken entstehen.
Sicherstellung diskriminierungsfreier Ergebnisse durch Beseitigung algorithmischer und datenbedingter Verzerrungen.
Kontrolle und Überwachung
KI-gesteuerte Sicherheit erfordert eine groß angelegte Überwachung des Netzwerkverkehrs, der Anmeldeversuche und des Nutzerverhaltens, Erstellung detaillierter digitaler Fußabdrücke. Diese ständige Überwachung birgt das Risiko das Vertrauen der Nutzer untergraben und Fragen der Zustimmung aufwerfen. Außerdem, eine langfristige Datenspeicherung erhöht die Wahrscheinlichkeit von Verstößenund Cloud-basierte Verarbeitung steigt Fragen zur grenzüberschreitenden Datenverwaltung.
Schutz personenbezogener und organisatorischer Daten, Achtung der Einwilligung und Minimierung unnötiger Datenerfassung.
Autonome Entscheidungsfindung und unbeabsichtigte Folgen
Automatisierte Maßnahmen wie Kontosperren, IP-Sperren oder Netzabschaltungen können inakzeptable Falsch-Positiv- oder Falsch-Negativ-Raten aufweisen, vor allem, wenn die automatisierten Entscheidungen nicht ausreichend durch den relevanten Kontext untermauert sind. In einem von Cybersicherheitsforschern durchgeführten ExperimentKI-basierte Systeme blockierten erfolgreich 92% der Bedrohungen, stuften aber 8% der legitimen Aktivitäten fälschlicherweise als bösartig ein. Solche Fehler bergen die Gefahr, dass kritische Dienste, z. B. im Finanz- oder Gesundheitswesen, gestört werden, und erschweren die Rechenschaftspflicht für verursachte Schäden.
Beibehaltung von Human-in-the-Loop-Mechanismen und klare Zuweisung der Verantwortung für KI-gesteuerte Ergebnisse.
Undurchsichtigkeit von AI-Modellen
Viele KI-Systeme fungieren als "Blackbox", die kaum Aufschluss darüber gibt, wie sie zu Schlussfolgerungen kommen. CybersicherheitAufgrund dieser mangelnden Erklärbarkeit kann es für Analysten schwierig sein, zu verstehen, warum legitimer Datenverkehr gekennzeichnet wird oder warum bestimmte Bedrohungen Vorrang haben, was dazu führen kann, dass das Vertrauen untergraben und verzögern wirksame Reaktionen.
KI-Entscheidungsprozesse müssen für die Beteiligten klar und verständlich sein.
Um diese Grundsätze in die Praxis umzusetzen, können Organisationen auf eine Kombination aus rechtlichen und technischen Instrumenten zurückgreifen, um die Vertrauenswürdigkeit von KI-Systemen zu verbessern:
Regulatorische Maßnahmen umfassen Regelwerke zur Einhaltung von Vorschriften wie die EU-Gesetz über künstliche Intelligenz (AI-Gesetz)die risikobasierte Verpflichtungen, Folgenabschätzungen für die Grundrechte und Rechenschaftsmechanismen für KI-Systeme mit hohem Risiko einführt. Zu den weiteren Regulierungsmaßnahmen gehören Folgenabschätzungen für Algorithmen, um Risiken vor dem Einsatz zu bewerten, die Einhaltung von Datenschutzgesetzen wie dem GDPR und CCPAund Verantwortungsrahmen die die Haftung für KI-bedingte Fehler zuweisen. Die Entwicklung und Annahme international anerkannter Normen und Zertifizierungen bieten zusätzliche Compliance-Instrumente, die dazu beitragen, rechtliche Verpflichtungen zu operationalisieren, das Vertrauen zu fördern und bis zu einem gewissen Grad die Innovation voranzutreiben, indem sie Unternehmen die Möglichkeit geben, mit der Produktentwicklung innerhalb vorgegebener Leitplanken zu experimentieren.
Technische Lösungen Dazu gehören fairnessbewusste Methoden des maschinellen Lernens, Techniken zur Erkennung und Abschwächung von Verzerrungen, Technologien zur Verbesserung der Privatsphäre wie Verschlüsselung und Anonymisierung sowie erklärbare KI-Ansätze, die Entscheidungsprozesse transparenter machen. Human-in-the-Loop-Überwachung und kontinuierliche Überwachung der Modelle weiterhin sicherstellen, dass automatisierte Systeme korrekt, ethisch vertretbar und mit den Werten des Unternehmens und der Gesellschaft im Einklang stehen.

Erhebungsmethoden und Daten

Virtual Routes führte eine Online-Umfrage unter 27 teilnehmenden Lehrkräften von Universitäten in ganz Europa durch. Mit dem Fragebogen sollte ermittelt werden, ob sie derzeit KI in ihrer Cybersecurity-Lehre einsetzen, wie sie sie einsetzen, welche Gründe sie dafür haben, welche spezifischen Tools und Aufgaben damit verbunden sind und ob sie KI im Zusammenhang mit der Cybersecurity-Unterstützung für lokale Gemeinschaftsorganisationen (LCOs) einsetzen. Obwohl die Antworten statistisch nicht signifikant sind, geben sie einen Einblick in die aktuellen Praktiken und Erwartungen und zeigen sowohl die Chancen als auch die Herausforderungen auf, die mit der Integration von KI in die Cybersicherheitsausbildung verbunden sind. Die Umfrage wurde durch Folgegespräche ergänzt, um ein besseres Verständnis der praktischen Anwendungsfälle zu erreichen.

Einige wichtige Erkenntnisse können hervorgehoben werden:

Frühe, aber zunehmende Nutzung von KI

Von den 27 Befragten gaben die meisten (22) an, dass sie in ihrem Unterricht bereits mit KI-Tools experimentieren, insbesondere in von Google.org organisierten Cybersicherheitsseminaren. Die Einführung befindet sich jedoch noch in der Anfangsphase und ist oft auf spezifische Aufgaben und nicht auf eine systematische Integration beschränkt. Fünf der Befragten gaben an, dass sie KI noch nicht einsetzen.

Vielfältige Anwendungsfälle

Die häufigsten Anwendungen umfassen allgemeine Schreib- und Datenerfassungs-/Analyseaufgaben (unter Verwendung gängiger LLMs), Datensynthese und spezielle Cybersicherheitsaufgaben wie die Erkennung von Anomalien, die Kartierung von Angriffsflächen, die Analyse von Malware und praktische Übungen.

Beweggründe für die Annahme

Ausbilder im Bereich Cybersicherheit nutzen KI in erster Linie, um Studenten bei der Vorbereitung auf den Arbeitsplatz zu helfen, das selbstgesteuerte Lernen und die Selbsteinschätzung zu unterstützen und Zeit bei pädagogischen Aufgaben wie der Erstellung von Übungen, der Benotung und der Erstellung von Inhalten zu sparen. Viele sehen auch den Wert des Einsatzes von KI zur Veranschaulichung wichtiger Cybersicherheitskonzepte und -szenarien.

Anwendung in Gemeinschaftsdiensten

Etwa die Hälfte der Befragten (15 von 27) gab an, dass sie bereits KI einsetzen oder dies planen, um lokalen Gemeinschaftsorganisationen (LCOs) Unterstützung in Sachen Cybersicherheit zu bieten, was ein wichtiger Aspekt der Google.org-Cybersicherheitsseminare ist. Dies zeigt eine wachsende Verbindung zwischen der Erforschung von KI-Tools im Klassenzimmer und ihrer Anwendung in realen Gemeinschaftskontexten.

Bedürfnisse und Erwartungen der Pädagogen

Mehrere Befragte äußerten ihr Interesse an Leitlinien und Beispielen für die effektive Integration von KI in die Cybersicherheitsausbildung. Sie betonten den Bedarf an bewährten Verfahren, gemeinsamen Ressourcen und Fallstudien, um vom Experimentieren zu einer strukturierteren und effektiveren Nutzung von KI in der Lehre und bei der Erbringung von Dienstleistungen zu gelangen.

Navigieren im Toolkit

Dieses Toolkit ist in zwei Teile gegliedert, die die doppelte Rolle der KI im Bereich der Cybersicherheit widerspiegeln.

KI in der Cyberabwehr

Wie KI die Cyberabwehr über den gesamten Lebenszyklus von Cybervorfällen hinweg verändert:

Im ersten Teil werden die Auswirkungen von KI auf die Cyberverteidigung untersucht und es wird dargelegt, wie KI-Tools die Cyberverteidigung über den gesamten Lebenszyklus eines Vorfalls - Prävention, Vorbereitung, Reaktion und Wiederherstellung - unterstützen. Er hebt konkrete Anwendungen wie die Kartierung von Angriffsflächen, die Erkennung von Anomalien und die Entwicklung von sicherem Code hervor und veranschaulicht diese mit Fallstudien und Verweisen für weitere Studien.

KI in der Cyberkriminalität

Wie KI die Cyber Kill Chain verändert:

Der zweite Teil befasst sich mit den Auswirkungen der KI auf Cyberangriffe, wobei der Schwerpunkt darauf liegt, wie KI die Cyber Kill Chain umgestaltet. Es wird untersucht, wie KI es Angreifern ermöglicht, Phasen wie Aufklärung, Bewaffnung und Auslieferung zu automatisieren und zu verbessern und gleichzeitig neue Angriffsformen einzuführen. Fallbeispiele und weiterführende Lektüre liefern den Kontext für das Verständnis dieser Entwicklungen.

Glossar der Begriffe

Wie Sie einen Beitrag leisten können

Verwenden Sie eine Open-Source-KI-Lösung, um Studenten in Cybersicherheit zu schulen, oder haben Sie andere öffentlich zugängliche Ressourcen, die Sie für den Unterricht über KI und Cybersicherheit zur Verfügung stellen können (ob KI-basiert oder nicht)?

Wir würden uns freuen, von Ihnen zu hören. Bitte mailen Sie uns an co*****@vi************.org Wir werden Ihre Beiträge mit der gesamten Gemeinschaft teilen und dafür sorgen, dass dieses Toolkit auf dem neuesten Stand bleibt.

Vielen Dank, dass Sie sich für unseren Newsletter angemeldet haben!

Dankeschön! RSVP für AI in Cybersecurity Toolkit erhalten

Toolkit für KI in der Cybersicherheit

Laden...

Laden...