JAV kibernetinio saugumo agentūra CISA surengė pirmąsias AI kibernetinio incidento pratybas, parodančias, kaip reaguoti į DI sukeltus kibernetinius incidentus
Praėjusią savaitę JAV kibernetinio saugumo ir infrastruktūros saugumo agentūra (CISA) surengė pirmąsias pratybas ant stalo, daugiausia dėmesio skiriant su AI susijusiems kibernetinio saugumo incidentams. Keturias valandas trukusiomis pratybomis, kurias organizavo Jungtinis kibernetinės gynybos bendradarbiavimas (JCDC), buvo siekiama imituoti kibernetinę ataką AI palaikančioje sistemoje. Dalyviai, įskaitant daugiau nei 50 dirbtinio intelekto ekspertų iš vyriausybinių agentūrų ir pramonės partnerių, susirinko „Microsoft“ padalinyje Restone, Virdžinijoje, kad bendradarbiautų atsakant.
Pratybos buvo skirtos scenarijus, kai kyla pavojus dirbtinio intelekto sistemos arba bet kurios sistemos, sukurtos ar įgalintos dirbtinio intelekto, konfidencialumui, vientisumui ar prieinamumui. Tai apėmė reikšmingus sistemos veikimo sutrikimus, dėl kurių reikėjo nedelsiant įsikišti. Pagrindiniai pratybų tikslai buvo nustatyti galimybes dalytis informacija, sukurti viešojo ir privačiojo sektorių įsipareigojimų protokolus ir sustiprinti operatyvų bendradarbiavimą.
CISA nubrėžė kelis pagrindinius tikslus: tobulinti dalijimosi informacija apie su AI susijusius kibernetinius incidentus praktiką, įvertinti dalyvių reagavimo procedūras ir geriausią praktiką bei tiksliai nustatyti reagavimo planų, informacijos mainų ir atsparumo tobulinimo sritis. Pratybose taip pat buvo įvertinti vyriausybinių agentūrų, pramonės ir tarptautinių partnerių bendradarbiavimo galimybės, poreikiai ir prioritetai.
Pratybų metu gautos įžvalgos bus naudojamos kuriant AI saugumo incidentų bendradarbiavimo planą. Šiuo vadovu siekiama sustiprinti operatyvų bendradarbiavimą ir didinti vyriausybės, pramonės ir kitų partnerių informuotumą. CISA planuoja atlikti antrą planą, kad išbandytų ir patobulintų šią knygą su ypatingos svarbos infrastruktūros sektoriaus AI įmonėmis ir organizacijomis, kurios jau naudoja dirbtinį intelektą savo veikloje.
CISA direktorė Jen Easterly pabrėžė šio pratimo svarbą mažinant AI riziką ir pabrėžė saugių AI produktų kūrimo svarbą. Ji išreiškė entuziazmą dėl tolesnio bendradarbiavimo su partneriais siekiant užtikrinti AI sistemų saugumą ir atsparumą.





