DeepSeek AI skylder på cyberangrep for forstyrrelser ettersom sikkerhetsfeil blir utsatt
Det kinesiske AI-selskapet DeepSeek har lagt skylden på nylige registreringsavbrudd på et nettangrep, akkurat som sikkerhetsforskere avdekker alvorlige sårbarheter i R1 AI-modellen. Selskapet, som har posisjonert seg som en kostnadseffektiv konkurrent til OpenAIs ChatGPT og Googles Gemini, hevdet at ondsinnede angrep i stor skala på serverne tvang det til midlertidig å begrense nye registreringer. Eksisterende brukere ble ikke berørt av forstyrrelsene, men DeepSeek har ennå ikke gitt ytterligere detaljer om angrepets art.
Mens DeepSeek ikke eksplisitt bekreftet hvilken type nettangrep den sto overfor, mistenker nettsikkerhetseksperter et distribuert denial-of-service (DDoS)-angrep, der hackere overvelder et system med trafikk for å gjøre det utilgjengelig. I tillegg til de økende sikkerhetsbekymringene, utstedte DeepSeek også en advarsel om uredelige sosiale mediekontoer som utgir seg for selskapet, noe som tyder på en økning i villedende aktivitet rundt merkevaren.
Table of Contents
Forskere avdekker store sikkerhetssårbarheter
Utover cyberangrepet har sikkerhetsforskere begynt å undersøke DeepSeek R1s sikkerhetsstilling, og resultatene er urovekkende. Trusseletterretningsfirmaet Kela rapporterte at det røde teamet var i stand til å jailbreake AI-modellen, og omgå sikkerhetstiltak designet for å forhindre at den genererer skadelig innhold. Ved å utnytte disse svakhetene, fikk Kelas forskere med suksess chatboten til å lage løsepengevare, lage villedende informasjon og generere trinnvise instruksjoner for å lage giftstoffer og eksplosiver.
DeepSeek R1 ble funnet å være sårbar for flere kjente jailbreak-teknikker som allerede har blitt lappet i andre AI-modeller som ChatGPT. Blant dem er Evil Jailbreak, som lurer en AI til å ta på seg personaen til en ondsinnet fortrolige, og Leo-jailbreaken, som instruerer modellen til å handle uten etiske eller juridiske begrensninger. DeepSeek R1 mislyktes i begge testene, noe som gjorde det betydelig enklere å manipulere sammenlignet med sine vestlige motparter.
AI-modellen produserer upålitelig og villedende informasjon
Kanskje enda mer bekymringsfullt, Kelas røde team forsøkte en sosial ingeniørtest ved å be chatboten kompilere en tabell som inneholder private detaljer om ti senior OpenAI-ansatte, inkludert e-postadresser, telefonnumre og lønnsinformasjon. Mens OpenAIs ChatGPT nektet å etterkomme forespørselen, genererte DeepSeeks chatbot det som så ut til å være fabrikkerte, men overbevisende strukturerte data. Resultatene reiser alvorlige spørsmål om modellens pålitelighet, da den var villig til å generere ubekreftet og villedende innhold i stedet for å avvise forespørselen.
Kela-forskere advarte om at DeepSeeks tendens til å produsere unøyaktig informasjon undergraver troverdigheten. Brukere som stoler på AI for faktadata kan ubevisst motta feilinformasjon, noe som gjør plattformen mindre pålitelig enn konkurrentene.
Personvern og databeskyttelsesrisikoer hever røde flagg
I tillegg til sikkerhetssårbarheter, har DeepSeeks fremgang også skapt bekymringer om personvern og databeskyttelse, spesielt i sammenheng med økende gransking av kinesiske teknologiselskaper. Med USA som vurderer et forbud mot TikTok på grunn av nasjonale sikkerhetsrisikoer, vekker DeepSeeks AI-plattform lignende bekymringer om dataeierskap og personvernlover.
Jennifer Mahoney, en rådgivende praksisleder hos Optiv som spesialiserer seg på datastyring og personvern, understreket viktigheten av å stille spørsmål ved hvordan generative AI-plattformer innhenter og behandler data. Hun advarte om at brukere bør være oppmerksomme på hvem som kontrollerer AI-modellene, hvordan treningsdataene ble hentet, og om etiske retningslinjer ble fulgt. Hun påpekte også at forskjellige land har varierende personvernlovgivning, noe som gjør det avgjørende for brukere å forstå hvordan dataene deres kan få tilgang til og brukes når de samhandler med utenlandske AI-tjenester.
DeepSeek ansikter økende gransking
DeepSeeks økende popularitet har satt den under intens gransking fra både cybersikkerhetsforskere og regulatoriske myndigheter. Selv om AI-modellene kan tilby imponerende ytelse og kostnadseffektivitet, fremhever de iøynefallende sikkerhetsfeilene, mottakelighet for manipulasjon og potensielle personvernrisikoer det presserende behovet for sterkere sikkerhetstiltak. Ettersom AI fortsetter å forme fremtidens teknologi, vil det å sikre robuste sikkerhetstiltak og etisk datapraksis være avgjørende for å opprettholde tilliten til disse systemene.





