Soubor nástrojů pro umělou inteligenci v kybernetické bezpečnosti

Zdroje pro učitele kybernetické bezpečnosti

Úvod

Umělá inteligence (AI) rychle mění prostředí kybernetické bezpečnosti, a to jak jako nástroj obrany, tak jako zbraň útoku. Pro pedagogy tato dvojí role vytváří naléhavou potřebu připravit studenty nejen na využití umělé inteligence k ochraně, ale také na pochopení toho, jak ji mohou protivníci využít při útocích.

Na straně obrany je umělá inteligence již začleněna do profesionálních bezpečnostních prostředí a ovlivňuje všechny různé fáze životního cyklu kybernetických incidentů (např. prevenci, připravenost, reakci a obnovu). Umožňuje analýzu protokolů, detekci anomálií, vyšetřování malwaru a dokonce i školení povědomí, což obráncům poskytuje větší rychlost, přesnost a škálovatelnost. Ve výuce AI také otevírá nové možnosti výuky díky automatizaci hodnocení, generování případových studií, simulaci reálných incidentů a navrhování interaktivních cvičení, která pomáhají studentům efektivněji pochopit složité koncepty kybernetické bezpečnosti.

Současně je umělá inteligence hnací silou nové generace útočných kybernetických operací. Škodliví aktéři využívají generativní umělou inteligenci k automatizaci průzkumu, personalizaci phishingových kampaní, urychlení odhalování zranitelností nebo nasazení adaptivního malwaru. Tato transformace kybernetického smrtícího řetězce zintenzivnila rozsah a sofistikovanost útoků po celém světě, od ransomwaru po deepfakes a swarm malware. Umělá inteligence je tak jak prostředníkem kybernetických útoků, tak sama o sobě cílem zneužití protivníky, přičemž zranitelnosti, jako je otrava dat a příklady protivníků, představují nová rizika.

Tento soubor nástrojů byl vyvinut Virtual Routes jako součást Program seminářů kybernetické bezpečnosti podporovaný společností Google.org, aby učitelé a studenti měli k dispozici zdroje v neustále se vyvíjejícím oboru. Vychází z průzkumu zúčastněných univerzit a poskytuje materiály, které pomáhají pochopit dopad umělé inteligence na kybernetickou bezpečnost a představují její dvojí roli jako obranného i útočného nástroje.

Dopady umělé inteligence na dovednosti v oblasti kybernetické bezpečnosti

Na stránkách Evropský rámec dovedností v oblasti kybernetické bezpečnosti (ECSF) definuje dvanáct klíčových profesních rolí v oblasti kybernetické bezpečnosti, spolu s úkoly, dovednostmi, znalostmi a kompetencemi potřebnými v tomto odvětví. Tyto role sahají od technických funkcí, jako je zpravodajství o hrozbách a penetrační testování, až po širší úkoly, jako je řízení rizik a vzdělávání. Identifikovali jsme pět hlavních způsobů, jakými umělá inteligence ovlivňuje dovednosti a kompetence potřebné pro tyto role:

Analýza dat a zpravodajství o hrozbách

ECSF: specialista na zpravodajství o kybernetických hrozbách; vyšetřovatel digitální forenzní analýzy

Systémy LLM mohou urychlit shromažďování, korelaci a sumarizaci velkých objemů hlášení o hrozbách, protokolů a indikátorů kompromitace. Od analytiků se stále vyžaduje ověřování zjištění, ale jejich pozornost se přesouvá od opakovaného analyzování ke kritické interpretaci.

Odhalování incidentů a reakce na ně

ECSF: Odpovědník na kybernetické incidenty

Umělá inteligence může pomoci při detekci anomálií, třídění a prvotním hlášení. Dovednosti v oblasti ověřování výstrah, kontextualizace incidentů a rozhodování o přiměřených reakcích jsou stále důležitější.

Hodnocení rizik a dodržování předpisů

ECSF: pracovník pro právní záležitosti, politiku a dodržování předpisů v oblasti kybernetické bezpečnosti; manažer rizik kybernetické bezpečnosti; auditor kybernetické bezpečnosti

Umělá inteligence může podporovat automatickou klasifikaci citlivých dat a předběžné hodnocení rizik. Odborníci z praxe musí uplatnit úsudek, aby posoudili, zda jsou výstupy řízené umělou inteligencí v souladu s regulačními a organizačními požadavky.

Bezpečný vývoj a kontrola kódu

ECSF: Implementátor kybernetické bezpečnosti; Architekt kybernetické bezpečnosti; Penetrační tester

Skenování kódu pomocí umělé inteligence upozorňuje na nezabezpečené vzory a navrhuje opravy. Profesionálové jsou i nadále zodpovědní za zajištění bezpečných postupů kódování a za zmírnění rizika halucinací nebo falešně pozitivních výsledků umělé inteligence, protože umělá inteligence může také vytvářet nezabezpečený kód.

Vzdělávání a osvěta

ECSF: Vzdělavatel v oblasti kybernetické bezpečnosti; výzkumný pracovník v oblasti kybernetické bezpečnosti

LLM umožňují generovat adaptivní tréninkové scénáře, syntetické soubory dat a automatickou zpětnou vazbu. Dovednosti pedagogů se vyvíjejí směrem ke kurátorství, ověřování a zodpovědnému začleňování zdrojů AI do výukových programů.

Klíčové kompetence AI pro kybernetickou bezpečnost

Všudypřítomné zavádění umělé inteligence vyžaduje, aby si všichni odborníci na kybernetickou bezpečnost, ať už zastávají jakoukoli roli, osvojili nové dovednosti, které přispějí k odpovědnému, adaptivnímu a efektivnímu využívání nástrojů umělé inteligence. Tyto klíčové kompetence v oblasti UI přesahují znalosti konkrétních nástrojů a zaměřují se spíše na základní schopnosti potřebné pro efektivní práci v tomto rychle se vyvíjejícím prostředí:

1. Základní znalosti
  • Gramotnost v oblasti umělé inteligence porozumět možnostem a omezením umělé inteligence a bezpečně ji začlenit do pracovních postupů bez přílišného spoléhání se na ni nebo bez zbytečné důvěry.
  • Etické povědomí identifikovat rizika související s předpojatostí, soukromím, odpovědností a bezpečností a zajistit, aby systémy umělé inteligence byly nasazovány způsobem, který dodržuje profesní a společenské standardy.
2. Hodnocení a dohled
  • Kritické hodnocení posoudit výstupy generované umělou inteligencí na základě důvěryhodných zdrojů a kontextových znalostí a rozpoznat, kdy je třeba další validace nebo lidský úsudek.
  • Vysvětlitelnost a transparentnost interpretovat výstupy umělé inteligence, zkoumat "černé skříňky" modelů a srozumitelně sdělovat výsledky technickým i netechnickým zúčastněným stranám, čímž se posílí důvěra v rozhodování s pomocí umělé inteligence.
  • Odolnost a lidský dohled navrhnout ochranná opatření, která zabrání přílišnému spoléhání na automatizaci, zajistí spolehlivé záruky a zachovají lidskou odpovědnost za kritická rozhodnutí.
3. Řízení rizik a dat
  • Správa dat zajistit kvalitu, rozmanitost a bezpečnost dat používaných v systémech umělé inteligence, protože chápou, že špatná správa dat může způsobit systémové zranitelnosti.
  • Řízení rizik AI předvídat a zmírňovat rizika specifická pro umělou inteligenci, jako jsou halucinace, manipulace ze strany protivníka, generování nezabezpečeného kódu a otrava dat, a začlenit tyto aspekty do širších rámců kybernetických rizik.
4. Přizpůsobivost do budoucna
  • Průběžné učení aktualizovat dovednosti, sledovat vznikající hrozby a zapojit se do nového vývoje aplikací umělé inteligence pro kybernetickou bezpečnost.
  • Scénáristické myšlení a předvídání předvídat, jak může pokrok v oblasti umělé inteligence změnit technickou, organizační a strategickou úroveň kybernetické bezpečnosti, a připravit odborníky na to, aby mohli aktivně reagovat na budoucí výzvy.
5. Spolupráce a komunikace
  • Mezioborová spolupráce účinně spolupracovat s odborníky v oblasti práva, politiky, psychologie a etiky a uvědomit si, že odpovědné využívání umělé inteligence vyžaduje perspektivy, které přesahují čistě technické oblasti.
  • Komunikace a budování důvěry srozumitelně a s nuancemi vysvětlovat rozhodnutí založená na umělé inteligenci a udržovat tak důvěru všech zúčastněných stran.

Automatizace opakujících se úkolů nebo úkolů s nižší přidanou hodnotou poháněná umělou inteligencí vyvolala naléhavé otázky týkající se transformace pracovní síly a možného přesunu pracovních míst. Zatímco se však některé úkoly analytiků mohou zmenšit, vznikají nové požadavky týkající se dohledu nad výstupy AI, ověřování zjištění a řešení rizik specifických pro AI, jako jsou halucinace, nezabezpečené generování kódu nebo manipulace ze strany protivníka. Spíše než k eliminaci rolí v oblasti kybernetické bezpečnosti dochází u AI k posunu profilu dovedností směrem k dohledu, řízení a spolupráci člověka s AI.

Etické a odpovědné využívání umělé inteligence v kybernetické obraně

Optimalizací času, efektivity a zdrojů umožňuje umělá inteligence obráncům dělat více s menšími náklady, snižuje překážky vstupu a posiluje schopnost odhalovat a reagovat na stále složitější kybernetické hrozby. S rostoucím rozsahem a sofistikovaností kybernetických incidentů je AI díky své schopnosti zpracovávat velké množství dat nepostradatelná. Přílišné spoléhání na výstupy AI však přináší nová zranitelná místa, zejména pokud jsou tyto výstupy nepřesné nebo postrádají porozumění kontextu, což vyvolává řadu otázek týkajících se etiky a odpovědného používání:

Hlavní etické problémy

Předsudky a diskriminace
Modely umělé inteligence vyškolené na neobjektivních nebo nevyvážených souborech dat mohou nespravedlivě označit určité skupiny uživatelů nebo regiony za škodlivé. Například, výzkumníci v oblasti kybernetické bezpečnosti vycvičili systém detekce narušení na základě historických dat o útocích. a zjistili, že u uživatelů v nedostatečně zastoupených regionech vedlo k 30% více falešně pozitivním výsledkům, zatímco vyvážené trénování vedlo ke spravedlivějším výsledkům. Podobně může umělá inteligence nadměrně upřednostňovat známé typy útoků a zároveň podceňovat nově vznikající hrozby, což vytváří mezery v obraně.
Zajistit nediskriminační výsledky řešením algoritmických a datových zkreslení.
Monitorování a dohled
Zabezpečení založené na umělé inteligenci vyžaduje rozsáhlé monitorování síťového provozu, pokusů o přihlášení a chování uživatelů, vytváření podrobných digitálních stop. Tento neustálý dohled představuje riziko. podkopává důvěru uživatelů a vyvolává problémy se souhlasem.. Kromě toho, dlouhodobé uchovávání dat zvyšuje pravděpodobnost narušení.a zpracování v cloudu zvyšuje otázky týkající se správy přeshraničních dat.
Chraňte osobní a organizační údaje, respektujte souhlas a minimalizujte zbytečné shromažďování.
Autonomní rozhodování a nezamýšlené důsledky
Automatizovaná opatření, jako je zablokování účtu, blokování IP nebo vypnutí sítě, mohou mít nepřijatelnou míru falešně pozitivních nebo falešně negativních výsledků, zejména pokud automatizovaná rozhodnutí nejsou dostatečně podložena relevantním kontextem. V experimentu, který provedli výzkumníci v oblasti kybernetické bezpečnosti., systémy založené na umělé inteligenci úspěšně zablokovaly 92% hrozeb, ale 8% legitimních aktivit nesprávně označily za škodlivé. Takové chyby představují riziko narušení kritických služeb, například ve finančnictví nebo zdravotnictví, a komplikují odpovědnost za způsobené škody.
Zachovejte mechanismy zapojení člověka do smyčky a jasně určete odpovědnost za výsledky řízené umělou inteligencí.
Neprůhlednost modelů AI
Mnohé systémy umělé inteligence fungují jako "černé skříňky", které poskytují jen málo informací o tom, jak dospívají k závěrům. V oblasti kybernetické bezpečnosti, tato nedostatečná vysvětlitelnost může analytikům ztížit pochopení toho, proč je legitimní provoz označen nebo proč jsou určité hrozby upřednostňovány, což může podkopávat důvěru a zpoždění účinných reakcí.
Zajistěte, aby rozhodovací procesy v oblasti umělé inteligence byly pro zúčastněné strany jasné a srozumitelné.
Při zavádění těchto zásad do praxe mohou organizace využívat kombinaci regulačních a technických nástrojů ke zvýšení důvěryhodnosti systémů umělé inteligence:
Regulační opatření zahrnují rámce pro dodržování předpisů, jako je např. Akt EU o umělé inteligenci (AI Act), který zavádí povinnosti založené na riziku, posouzení dopadu na základní práva a mechanismy odpovědnosti pro vysoce rizikové systémy UI. Mezi další regulační opatření patří posouzení dopadů algoritmizace za účelem vyhodnocení rizik před nasazením, dodržování zákonů o ochraně údajů, jako je např. GDPR a CCPAa rámce odpovědnosti které rozdělují odpovědnost za chyby související s UI. Vývoj a přijetí mezinárodně uznávaných norem a certifikací poskytuje další nástroje pro dodržování předpisů, které pomáhají operacionalizovat právní povinnosti, podporují důvěru a do jisté míry podporují inovace tím, že dávají organizacím možnost experimentovat s vývojem produktů v rámci předem stanovených ochranných rámců.
Technická řešení zahrnují metody strojového učení zohledňující spravedlnost, techniky pro odhalování a zmírňování předpojatosti, technologie pro posílení soukromí, jako je šifrování a anonymizace, a také vysvětlitelné přístupy k umělé inteligenci, které zprůhledňují rozhodovací procesy. Dohled člověka ve smyčce a průběžné monitorování modelů dále zajistit, aby automatizované systémy zůstaly přesné, etické a v souladu s organizačními a společenskými hodnotami.

Metody průzkumu a údaje

Společnost Virtual Routes provedla online průzkum mezi 27 zúčastněnými pedagogy z univerzit z celé Evropy. Cílem dotazníku bylo zjistit, zda v současné době používají umělou inteligenci při výuce kybernetické bezpečnosti, jak ji používají, jaké k tomu mají důvody, jaké konkrétní nástroje a úlohy používají a zda umělou inteligenci používají v rámci podpory kybernetické bezpečnosti poskytované organizacím místních komunit (LCO). Ačkoli odpovědi nejsou statisticky významné, poskytují vhled do současných postupů a očekávání a poukazují na příležitosti i výzvy spojené se začleněním UI do výuky kybernetické bezpečnosti. Průzkum byl doplněn následnými rozhovory, aby bylo dosaženo lepšího porozumění praktickým případům využití.

Lze zdůraznit několik klíčových poznatků:

Brzké, ale rostoucí využívání umělé inteligence

Z 27 respondentů většina (22) uvedla, že již s nástroji umělé inteligence ve výuce experimentují, zejména na seminářích o kybernetické bezpečnosti pořádaných společností Google.org. Přijímání je však stále v počátečních fázích a často se omezuje spíše na konkrétní úkoly než na systematickou integraci. Pět respondentů uvedlo, že umělou inteligenci zatím nepoužívají.

Různorodé případy použití

Nejčastější aplikace zahrnují obecné úlohy psaní a sběru/analýzy dat (s využitím běžných LLM), syntézu dat a specializované úlohy kybernetické bezpečnosti, jako je detekce anomálií, mapování povrchu útoků, analýza malwaru a praktické laboratoře.

Motivace pro přijetí

Vzdělavatelé v oblasti kybernetické bezpečnosti využívají umělou inteligenci především k tomu, aby pomohli studentům připravit se na práci, podpořili samostatné učení a sebehodnocení a ušetřili čas při pedagogických úkolech, jako je tvorba cvičení, klasifikace a generování obsahu. Mnozí z nich také vidí přínos v používání AI k ilustraci klíčových konceptů a scénářů kybernetické bezpečnosti.

Uplatnění v komunitních službách

Přibližně polovina respondentů (15 z 27) uvedla, že již využívají nebo plánují využívat umělou inteligenci k poskytování podpory kybernetické bezpečnosti organizacím místních komunit (LCO), což je klíčový aspekt seminářů kybernetické bezpečnosti Google.org. To ukazuje na rostoucí propojení mezi zkoumáním nástrojů umělé inteligence ve výuce a jejich použitím v reálném komunitním kontextu.

Potřeby a očekávání pedagogů

Několik respondentů vyjádřilo zájem o pokyny a příklady, jak účinně začlenit umělou inteligenci do vzdělávání v oblasti kybernetické bezpečnosti. Zdůraznili potřebu osvědčených postupů, sdílených zdrojů a případových studií, aby bylo možné přejít od experimentování ke strukturovanějšímu a efektivnějšímu využívání UI ve výuce a poskytování služeb.

Jak se orientovat v sadě nástrojů

Tento soubor nástrojů je rozdělen do dvou částí, které odrážejí dvojí roli umělé inteligence v kybernetické bezpečnosti.

Umělá inteligence v kybernetické obraně

Jak AI mění kybernetickou obranu v celém životním cyklu kybernetických incidentů:

První část se zabývá dopadem umělé inteligence na kybernetickou obranu a popisuje, jak nástroje umělé inteligence podporují kybernetickou obranu v celém životním cyklu incidentů, tedy v prevenci, připravenosti, reakci a obnově. Zdůrazňuje konkrétní aplikace, jako je mapování povrchu útoků, detekce anomálií a vývoj bezpečného kódu, a ilustruje je případovými studiemi a odkazy pro další studium.

Umělá inteligence v kybernetické kriminalitě

Jak umělá inteligence mění řetězec kybernetického zabíjení:

Druhá část se zabývá dopadem umělé inteligence na kybernetické útoky a zaměřuje se na to, jak umělá inteligence mění řetězec kybernetického zabíjení. Zvažuje, jak AI umožňuje útočníkům automatizovat a zdokonalovat fáze, jako je průzkum, vyzbrojování a doručování, a zároveň zavádí nové formy útoku. Příklady z praxe a další literatura poskytují kontext pro pochopení tohoto vývoje.

Slovníček pojmů

Jak můžete přispět

Používáte ke školení studentů v oblasti kybernetické bezpečnosti řešení s otevřeným zdrojovým kódem, nebo máte jiné veřejně dostupné zdroje, o které byste se mohli podělit při výuce o umělé inteligenci a kybernetické bezpečnosti (ať už založené na umělé inteligenci, nebo ne)?

Rádi bychom od vás slyšeli. Napište nám prosím na adresu co*****@vi************.org , budeme vaše příspěvky sdílet s širší komunitou a zajistíme, aby byl tento soubor nástrojů průběžně aktualizován.

Děkujeme, že jste se přihlásili k odběru našeho newsletteru!

Děkujeme! Přijatá RSVP pro AI in Cybersecurity Toolkit

Soubor nástrojů pro umělou inteligenci v kybernetické bezpečnosti

Načítání...

Načítání...