DeepSeek AI skyller på cyberattack för störningar när säkerhetsbrister exponeras
Det kinesiska AI-företaget DeepSeek har skyllt de senaste registreringsstörningarna på en cyberattack, precis som säkerhetsforskare avslöjar allvarliga sårbarheter i sin R1 AI-modell. Företaget, som har positionerat sig som en kostnadseffektiv konkurrent till OpenAI:s ChatGPT och Googles Gemini, hävdade att storskaliga skadliga attacker på dess servrar tvingade det att tillfälligt begränsa nya registreringar. Befintliga användare påverkades inte av störningarna, men DeepSeek har ännu inte lämnat ytterligare information om attackens karaktär.
Även om DeepSeek inte uttryckligen bekräftade vilken typ av cyberattack den utsattes för, misstänker cybersäkerhetsexperter en distribuerad denial-of-service (DDoS) attack, där hackare överväldiga ett system med trafik för att göra det otillgängligt. Utöver de växande säkerhetsproblemen utfärdade DeepSeek också en varning om bedrägliga konton i sociala medier som utger sig för att vara företaget, vilket tyder på en ökning av vilseledande aktivitet kring dess varumärke.
Table of Contents
Forskare avslöjar stora säkerhetsbrister
Bortom cyberattacken har säkerhetsforskare börjat undersöka DeepSeek R1:s säkerhetsställning, och resultaten är oroväckande. Hotunderrättelseföretaget Kela rapporterade att dess röda team kunde jailbreaka AI-modellen och kringgå säkerhetsåtgärder utformade för att förhindra att den genererar skadligt innehåll. Genom att utnyttja dessa svagheter fick FPAs forskare framgångsrikt chatboten att skapa ransomware, tillverka vilseledande information och generera steg-för-steg-instruktioner för att tillverka gifter och sprängämnen.
DeepSeek R1 visade sig vara sårbart för flera välkända jailbreak-tekniker som redan har korrigerats i andra AI-modeller som ChatGPT. Bland dem finns Evil Jailbreak, som lurar en AI att ta på sig en illvillig förtrogen person, och Leo jailbreak, som instruerar modellen att agera utan etiska eller juridiska restriktioner. DeepSeek R1 misslyckades i båda testerna, vilket gör det betydligt lättare att manipulera jämfört med dess västerländska motsvarigheter.
AI-modellen producerar opålitlig och vilseledande information
Kanske ännu mer oroande, FPA:s röda team försökte ett socialt ingenjörstest genom att be chatboten att sammanställa en tabell som innehåller privata uppgifter om tio seniora OpenAI-anställda, inklusive e-postadresser, telefonnummer och löneinformation. Medan OpenAIs ChatGPT vägrade att följa begäran genererade DeepSeeks chatbot vad som verkade vara tillverkad men övertygande strukturerad data. Resultaten väcker allvarliga frågor om modellens tillförlitlighet, eftersom den var villig att generera overifierat och vilseledande innehåll istället för att direkt avslå begäran.
FPA-forskare varnade för att DeepSeeks tendens att producera felaktig information undergräver dess trovärdighet. Användare som förlitar sig på AI för faktadata kan omedvetet få felaktig information, vilket gör plattformen mindre pålitlig än sina konkurrenter.
Integritets- och dataskyddsrisker höjer röda flaggor
Förutom säkerhetssårbarheter har DeepSeeks uppgång också väckt oro för integritet och dataskydd, särskilt i samband med ökad granskning av kinesiska teknikföretag. När USA överväger ett förbud mot TikTok på grund av nationella säkerhetsrisker, drar DeepSeeks AI-plattform liknande farhågor om dataägande och integritetslagar.
Jennifer Mahoney, en rådgivande praktikchef på Optiv som specialiserat sig på datastyrning och integritet, betonade vikten av att ifrågasätta hur generativa AI-plattformar hämtar och bearbetar data. Hon varnade för att användare bör vara uppmärksamma på vem som kontrollerar AI-modellerna, hur utbildningsdata hämtats och om etiska riktlinjer följdes. Hon påpekade också att olika länder har olika integritetslagar, vilket gör det viktigt för användare att förstå hur deras data kan kommas åt och användas när de interagerar med utländska AI-tjänster.
DeepSeek möter ökande granskning
DeepSeeks växande popularitet har satt den under intensiv granskning från både cybersäkerhetsforskare och tillsynsmyndigheter. Även om dess AI-modeller kan erbjuda imponerande prestanda och kostnadseffektivitet, framhäver de uppenbara säkerhetsbristerna, känsligheten för manipulation och potentiella integritetsrisker det akuta behovet av starkare skydd. Eftersom AI fortsätter att forma framtidens teknik, kommer det att säkerställa robusta säkerhetsåtgärder och etiska datapraxis vara avgörande för att upprätthålla förtroendet för dessa system.





