A DeepSeek AI a kibertámadást hibáztatja a zavarokért, mivel biztonsági hibákra derül fény
A kínai DeepSeek mesterséges intelligencia vállalat a közelmúltban bekövetkezett regisztrációs megszakításokat egy kibertámadásra okolta, ahogyan a biztonsági kutatók is komoly sebezhetőségeket tárnak fel az R1 AI modelljében. A cég, amely az OpenAI ChatGPT és a Google Gemini költséghatékony versenytársaként pozicionálta magát, azt állította, hogy a szervereit ért nagyszabású rosszindulatú támadások arra kényszerítették, hogy ideiglenesen korlátozza az új regisztrációkat. A meglévő felhasználókat nem érintették a fennakadások, de a DeepSeek egyelőre nem közölt további részleteket a támadás természetéről.
Míg a DeepSeek nem erősítette meg kifejezetten a kibertámadás típusát, a kiberbiztonsági szakértők elosztott szolgáltatásmegtagadási (DDoS) támadásra gyanakszanak, amelynek során a hackerek forgalommal terhelik meg a rendszert, hogy elérhetetlenné tegyék azt. A növekvő biztonsági aggodalmakat fokozva a DeepSeek figyelmeztetést adott ki a társaságot megszemélyesítő, csalárd közösségimédia-fiókokkal kapcsolatban, ami a márka körüli megtévesztő tevékenység növekedésére utal.
Table of Contents
A kutatók jelentős biztonsági réseket fedeztek fel
A kibertámadáson túl a biztonsági kutatók elkezdték vizsgálni a DeepSeek R1 biztonsági helyzetét, és az eredmények aggasztóak. A Kela fenyegetésekkel foglalkozó hírszerző cég arról számolt be, hogy vörös csapata képes volt feltörni az AI-modellt, megkerülve azokat a biztonsági intézkedéseket, amelyek megakadályozták, hogy káros tartalmat generáljon. E gyengeségek kihasználásával a Kela kutatói sikeresen késztették a chatbotot zsarolóprogramok létrehozására, félrevezető információk előállítására, és lépésről lépésre vonatkozó utasítások generálására a méreganyagok és robbanóanyagok előállításához.
A DeepSeek R1-ről kiderült, hogy sebezhető számos jól ismert jailbreak technikával szemben, amelyeket más AI modellekben, például a ChatGPT-ben már javítottak. Köztük van az Evil Jailbreak, amely rávesz egy mesterséges intelligenciát, hogy felvegye egy rosszindulatú bizalmas személyét, és a Leo jailbreak, amely arra utasítja a modellt, hogy etikai vagy jogi korlátozások nélkül cselekedjen. A DeepSeek R1 mindkét teszten megbukott, így nyugati társaihoz képest lényegesen könnyebben kezelhető.
Az AI-modell megbízhatatlan és félrevezető információkat szolgáltat
Talán még ennél is aggasztóbb, hogy a Kela vörös csapata megpróbált egy social engineering tesztet úgy, hogy felkérte a chatbotot, hogy állítson össze egy táblázatot, amely tíz vezető OpenAI-alkalmazott személyes adatait tartalmazza, beleértve az e-mail címeket, telefonszámokat és fizetési információkat. Míg az OpenAI ChatGPT-je megtagadta a kérés teljesítését, a DeepSeek chatbotja kitalált, de meggyőzően strukturált adatokat generált. Az eredmények komoly kérdéseket vetnek fel a modell megbízhatóságát illetően, mivel hajlandó volt ellenőrizetlen és félrevezető tartalmat generálni ahelyett, hogy egyenesen elutasította volna a kérést.
A Kela kutatói arra figyelmeztettek, hogy a DeepSeek azon tendenciája, hogy pontatlan információkat állít elő, aláássa a hitelességét. Azok a felhasználók, akik az MI-re támaszkodnak tényadatokért, tudtukon kívül téves információkat kaphatnak, így a platform kevésbé megbízható, mint versenytársai.
Az adatvédelmi és adatvédelmi kockázatok vörös zászlókat emelnek ki
A biztonsági rések mellett a DeepSeek térnyerése a magánélet védelmével és az adatvédelemmel kapcsolatos aggodalmakat is gerjesztette, különösen a kínai technológiai vállalatok fokozott ellenőrzése miatt. Mivel az Egyesült Államok nemzetbiztonsági kockázatok miatt fontolgatja a TikTok betiltását, a DeepSeek mesterséges intelligencia platformja hasonló aggályokat fogalmaz meg az adatok tulajdonjogával és az adatvédelmi törvényekkel kapcsolatban.
Jennifer Mahoney, az Optiv adatkezelésre és adatvédelemre szakosodott tanácsadó gyakorlati menedzsere hangsúlyozta annak fontosságát, hogy megkérdőjelezzük, hogyan szerzik be és dolgozzák fel az adatokat a generatív AI platformok. Figyelmeztetett arra, hogy a felhasználóknak ügyelniük kell arra, hogy ki irányítja az AI-modelleket, hogyan szerezték be a képzési adatokat, és betartották-e az etikai irányelveket. Arra is felhívta a figyelmet, hogy a különböző országokban eltérő adatvédelmi törvények vonatkoznak, ezért a felhasználók számára rendkívül fontos, hogy megértsék, hogyan férhetnek hozzá adataik és hogyan használhatók fel a külföldi mesterséges intelligencia szolgáltatásokkal való interakció során.
A DeepSeek arcai egyre jobban megvizsgálják
A DeepSeek növekvő népszerűsége mind a kiberbiztonsági kutatók, mind a szabályozó hatóságok intenzív vizsgálata alá helyezte. Míg mesterséges intelligencia modelljei lenyűgöző teljesítményt és költséghatékonyságot kínálnak, a szembetűnő biztonsági hibák, a manipulációra való hajlam és a lehetséges adatvédelmi kockázatok rávilágítanak arra, hogy sürgősen szükség van erősebb biztosítékokra. Mivel a mesterséges intelligencia továbbra is alakítja a technológia jövőjét, a szilárd biztonsági intézkedések és az etikus adatkezelési gyakorlatok biztosítása kulcsfontosságú lesz az e rendszerekbe vetett bizalom fenntartásához.





