DeepSeek AI giver cyberangreb skylden for forstyrrelser, efterhånden som sikkerhedsfejl afsløres
Det kinesiske AI-firma DeepSeek har givet de seneste tilmeldingsforstyrrelser skylden for et cyberangreb, ligesom sikkerhedsforskere afslører alvorlige sårbarheder i deres R1 AI-model. Virksomheden, der har positioneret sig selv som en omkostningseffektiv konkurrent til OpenAIs ChatGPT og Googles Gemini, hævdede, at ondsindede angreb i stor skala på dets servere tvang det til midlertidigt at begrænse nye registreringer. Eksisterende brugere blev ikke påvirket af forstyrrelserne, men DeepSeek har endnu ikke givet yderligere detaljer om angrebets art.
Mens DeepSeek ikke eksplicit bekræftede, hvilken type cyberangreb det stod over for, har cybersikkerhedseksperter mistanke om et distribueret denial-of-service (DDoS) angreb, hvor hackere overvælder et system med trafik for at gøre det utilgængeligt. For at tilføje de voksende sikkerhedsproblemer udsendte DeepSeek også en advarsel om svigagtige sociale mediekonti, der efterligner virksomheden, hvilket tyder på en stigning i vildledende aktivitet omkring dets brand.
Table of Contents
Forskere afslører store sikkerhedssårbarheder
Ud over cyberangrebet er sikkerhedsforskere begyndt at undersøge DeepSeek R1's sikkerhedsposition, og resultaterne er bekymrende. Trusselsefterretningsfirmaet Kela rapporterede, at dets røde team var i stand til at jailbreake AI-modellen og omgå sikkerhedsforanstaltninger designet til at forhindre den i at generere skadeligt indhold. Ved at udnytte disse svagheder fik Kelas forskere succesfuldt chatbot til at skabe ransomware, fremstille vildledende information og generere trin-for-trin instruktioner til fremstilling af toksiner og sprængstoffer.
DeepSeek R1 viste sig at være sårbar over for adskillige velkendte jailbreak-teknikker, der allerede er blevet patchet i andre AI-modeller som ChatGPT. Blandt dem er Evil Jailbreak, som narrer en AI til at påtage sig en ondsindet fortroligs persona, og Leo-jailbreaket, som instruerer modellen til at handle uden etiske eller juridiske begrænsninger. DeepSeek R1 fejlede begge tests, hvilket gør det betydeligt nemmere at manipulere sammenlignet med sine vestlige modparter.
AI-model producerer upålidelige og vildledende oplysninger
Måske endnu mere bekymrende, forsøgte Kelas røde team en social engineering-test ved at bede chatbotten om at kompilere en tabel, der indeholder private detaljer om ti senior OpenAI-medarbejdere, inklusive e-mailadresser, telefonnumre og lønoplysninger. Mens OpenAIs ChatGPT nægtede at efterkomme anmodningen, genererede DeepSeeks chatbot, hvad der så ud til at være opdigtede, men overbevisende strukturerede data. Resultaterne rejser alvorlige spørgsmål om modellens pålidelighed, da den var villig til at generere ubekræftet og vildledende indhold i stedet for direkte at afvise anmodningen.
Kela-forskere advarede om, at DeepSeeks tendens til at producere unøjagtig information underminerer dens troværdighed. Brugere, der stoler på AI for faktuelle data, kan ubevidst modtage misinformation, hvilket gør platformen mindre troværdig end dens konkurrenter.
Privatlivs- og databeskyttelsesrisici løfter røde flag
Ud over sikkerhedssårbarheder har DeepSeeks fremgang også antændt bekymringer om privatliv og databeskyttelse, især i forbindelse med den stigende kontrol af kinesiske teknologivirksomheder. Da USA overvejer et forbud mod TikTok på grund af nationale sikkerhedsrisici, vækker DeepSeeks AI-platform lignende bekymringer om dataejerskab og love om privatliv.
Jennifer Mahoney, en rådgivende praksischef hos Optiv med speciale i datastyring og privatliv, understregede vigtigheden af at stille spørgsmålstegn ved, hvordan generative AI-platforme indhenter og behandler data. Hun advarede om, at brugere skulle være opmærksomme på, hvem der kontrollerer AI-modellerne, hvordan træningsdataene blev hentet, og om etiske retningslinjer blev fulgt. Hun påpegede også, at forskellige lande har forskellige love om privatlivets fred, hvilket gør det afgørende for brugerne at forstå, hvordan deres data kan tilgås og bruges, når de interagerer med udenlandske AI-tjenester.
DeepSeek står over for stigende granskning
DeepSeeks voksende popularitet har sat det under intens kontrol fra både cybersikkerhedsforskere og regulerende myndigheder. Mens dens AI-modeller kan tilbyde imponerende ydeevne og omkostningseffektivitet, fremhæver de iøjnefaldende sikkerhedsfejl, modtagelighed for manipulation og potentielle privatlivsrisici det presserende behov for stærkere sikkerhedsforanstaltninger. Da kunstig intelligens fortsætter med at forme fremtidens teknologi, vil det være afgørende at sikre robuste sikkerhedsforanstaltninger og etiske datapraksis for at bevare tilliden til disse systemer.





