Amerykańska agencja ds. cyberbezpieczeństwa CISA przeprowadza pierwsze ćwiczenia dotyczące incydentów cybernetycznych związanych ze sztuczną inteligencją, demonstrujące reakcję na incydenty cybernetyczne spowodowane sztuczną inteligencją
W zeszłym tygodniu amerykańska Agencja ds. Cyberbezpieczeństwa i Bezpieczeństwa Infrastruktury (CISA) przeprowadziła pierwsze w historii ćwiczenia praktyczne skupiające się na incydentach cyberbezpieczeństwa związanych ze sztuczną inteligencją. Zorganizowane przez Joint Cyber Defense Collaborative (JCDC) czterogodzinne ćwiczenia miały na celu symulację cyberataku na system obsługujący sztuczną inteligencję. Uczestnicy, w tym ponad 50 ekspertów ds. sztucznej inteligencji z agencji rządowych i partnerów branżowych, zebrali się w siedzibie Microsoftu w Reston w Wirginii, aby współpracować nad odpowiedzią.
Ćwiczenie zaprojektowano z myślą o uwzględnieniu scenariuszy, w których zagrożona była poufność, integralność lub dostępność systemu sztucznej inteligencji lub dowolnego systemu stworzonego lub obsługiwanego przez sztuczną inteligencję. Obejmowało to znaczące zakłócenia w działaniu systemu, które wymagały natychmiastowej interwencji. Kluczowymi celami ćwiczenia było określenie możliwości wymiany informacji, ustanowienie protokołów zaangażowania publiczno-prywatnego oraz wzmocnienie współpracy operacyjnej.
CISA określiła kilka głównych celów: ulepszenie praktyk wymiany informacji w przypadku incydentów cybernetycznych związanych z sztuczną inteligencją, ocena procedur reagowania i najlepszych praktyk uczestników oraz wskazanie obszarów wymagających ulepszenia planów reagowania, wymiany informacji i odporności. W ćwiczeniu oceniono także możliwości, potrzeby i priorytety współpracy między agencjami rządowymi, przemysłem i partnerami międzynarodowymi.
Wnioski zdobyte w trakcie ćwiczenia zostaną wykorzystane do opracowania podręcznika współpracy w zakresie incydentów związanych z bezpieczeństwem sztucznej inteligencji. Celem tego podręcznika jest wzmocnienie współpracy operacyjnej i podniesienie świadomości wśród instytucji rządowych, przemysłu i innych partnerów. CISA planuje przeprowadzić drugie ćwiczenie praktyczne, aby przetestować i udoskonalić ten podręcznik z udziałem firm i organizacji zajmujących się sztuczną inteligencją w sektorze infrastruktury krytycznej, które już wykorzystują sztuczną inteligencję w swoich operacjach.
Dyrektor CISA Jen Easterly podkreśliła znaczenie tego działania w ograniczaniu ryzyka związanego ze sztuczną inteligencją i podkreśliła znaczenie opracowywania bezpiecznych produktów AI. Wyraziła entuzjazm w związku z kontynuacją współpracy z partnerami w celu zapewnienia bezpieczeństwa i odporności systemów sztucznej inteligencji.





