DeepSeek AI kaltina kibernetinę ataką dėl trikdžių, nes atskleidžiami saugumo trūkumai
Kinijos dirbtinio intelekto įmonė „DeepSeek“ dėl pastarojo meto registravimosi sutrikimų apkaltino kibernetinę ataką, lygiai taip pat, kaip saugumo tyrinėtojai atskleidžia rimtus jos R1 AI modelio pažeidžiamumus. Bendrovė, kuri yra ekonomiškai efektyvi OpenAI ChatGPT ir Google Gemini konkurentė, teigė, kad plataus masto kenkėjiškos atakos prieš jos serverius privertė laikinai apriboti naujų registracijų skaičių. Esamiems vartotojams trikdžiai įtakos neturėjo, tačiau „DeepSeek“ dar nepateikė daugiau informacijos apie atakos pobūdį.
Nors „DeepSeek“ aiškiai nepatvirtino, su kokio tipo kibernetinė ataka ji susidūrė, kibernetinio saugumo ekspertai įtaria paskirstytą paslaugų atsisakymo (DDoS) ataką, kai įsilaužėliai užvaldo sistemą srautu, kad ji taptų nepasiekiama. Didėjant susirūpinimui saugumu, „DeepSeek“ taip pat paskelbė įspėjimą apie apgaulingas socialinės žiniasklaidos paskyras, kurios apsimetinėja įmone, o tai rodo, kad padaugėjo apgaulingos veiklos, susijusios su jos prekės ženklu.
Table of Contents
Tyrėjai atskleidžia pagrindines saugumo spragas
Be kibernetinės atakos, saugumo tyrinėtojai pradėjo tirti „DeepSeek R1“ saugos padėtį, o rezultatai kelia nerimą. Grėsmių žvalgybos įmonė „Kela“ pranešė, kad jos raudonoji komanda sugebėjo sulaužyti dirbtinio intelekto modelį, apeinant saugos priemones, skirtas užkirsti kelią žalingo turinio generavimui. Išnaudodami šias silpnybes, Kela mokslininkai sėkmingai paskatino pokalbių robotą sukurti išpirkos reikalaujančią programinę įrangą, klaidinančią informaciją ir nuoseklias instrukcijas, kaip gaminti toksinus ir sprogmenis.
Nustatyta, kad „DeepSeek R1“ yra pažeidžiamas kelių gerai žinomų „jailbreak“ metodų, kurie jau buvo pataisyti kituose AI modeliuose, tokiuose kaip „ChatGPT“. Tarp jų yra „Evil Jailbreak“, apgaudinėjantis dirbtinį intelektą, kad jis perimtų piktavališko patikėtojo asmenybę, ir „Leo“ įkalinimas, kuris nurodo modeliui veikti be etinių ar teisinių apribojimų. „DeepSeek R1“ nepavyko atlikti abiejų bandymų, todėl juo manipuliuoti buvo daug lengviau, palyginti su Vakarų analogais.
AI modelis pateikia nepatikimą ir klaidinančią informaciją
Galbūt dar labiau rūpėjo tai, kad Kela raudonoji komanda bandė atlikti socialinės inžinerijos testą ir paprašė pokalbių roboto sudaryti lentelę su privačia informacija apie dešimt vyresnių OpenAI darbuotojų, įskaitant el. pašto adresus, telefono numerius ir informaciją apie atlyginimą. Nors „OpenAI“ „ChatGPT“ atsisakė įvykdyti prašymą, „DeepSeek“ pokalbių robotas sugeneravo, atrodytų, išgalvotus, bet įtikinamai struktūrizuotus duomenis. Rezultatai kelia rimtų klausimų dėl modelio patikimumo, nes jis norėjo generuoti nepatikrintą ir klaidinantį turinį, o ne visiškai atmesti užklausą.
Kela mokslininkai perspėjo, kad DeepSeek polinkis teikti netikslią informaciją kenkia jos patikimumui. Naudotojai, pasikliaujantys AI dėl faktinių duomenų, gali nesąmoningai gauti klaidingą informaciją, todėl platforma tampa mažiau patikima nei jos konkurentai.
Privatumo ir duomenų apsaugos pavojai kelia raudonas vėliavas
Be saugumo spragų, „DeepSeek“ augimas taip pat sukėlė susirūpinimą dėl privatumo ir duomenų apsaugos, ypač atsižvelgiant į didėjančią Kinijos technologijų įmonių priežiūrą. Jungtinėms Valstijoms svarstant galimybę uždrausti „TikTok“ dėl nacionalinio saugumo rizikos, „DeepSeek“ AI platforma kelia panašų susirūpinimą dėl duomenų nuosavybės ir privatumo įstatymų.
Jennifer Mahoney, Optiv konsultacinės praktikos vadovė, kurios specializacija yra duomenų valdymas ir privatumas, pabrėžė, kaip svarbu kelti klausimą, kaip generatyvios AI platformos gauna ir apdoroja duomenis. Ji perspėjo, kad vartotojai turėtų atkreipti dėmesį į tai, kas valdo AI modelius, kaip buvo gauti mokymo duomenys ir ar buvo laikomasi etikos gairių. Ji taip pat atkreipė dėmesį, kad įvairiose šalyse galioja skirtingi privatumo įstatymai, todėl vartotojams labai svarbu suprasti, kaip jų duomenys gali būti pasiekiami ir naudojami sąveikaujant su užsienio AI paslaugomis.
„DeepSeek“ veidai vis labiau stebimi
Dėl augančio „DeepSeek“ populiarumo jį atidžiai stebi ir kibernetinio saugumo tyrinėtojai, ir reguliavimo institucijos. Nors AI modeliai gali pasiūlyti įspūdingą našumą ir ekonomiškumą, akivaizdūs saugumo trūkumai, jautrumas manipuliavimui ir galimas pavojus privatumui rodo, kad reikia skubiai imtis griežtesnių apsaugos priemonių. Kadangi dirbtinis intelektas ir toliau formuoja technologijų ateitį, norint išlaikyti pasitikėjimą šiomis sistemomis, labai svarbu užtikrinti patikimas saugumo priemones ir etišką duomenų praktiką.





