DeepSeek AI obwinia cyberatak za zakłócenia, ponieważ ujawniono luki w zabezpieczeniach
Chińska firma AI DeepSeek obwiniła ostatnie zakłócenia w rejestracji o cyberatak, podczas gdy badacze bezpieczeństwa odkrywają poważne luki w zabezpieczeniach swojego modelu R1 AI. Firma, która pozycjonuje się jako opłacalny konkurent ChatGPT firmy OpenAI i Gemini firmy Google, twierdzi, że złośliwe ataki na dużą skalę na jej serwery zmusiły ją do tymczasowego ograniczenia nowych rejestracji. Istniejący użytkownicy nie zostali dotknięci zakłóceniami, ale DeepSeek nie podał jeszcze dalszych szczegółów na temat charakteru ataku.
Chociaż DeepSeek nie potwierdził wprost, jakiego rodzaju cyberataku doświadczył, eksperci ds. cyberbezpieczeństwa podejrzewają atak typu DDoS (distributed denial-of-service), w którym hakerzy przeciążają system ruchem, aby uczynić go niedostępnym. Dodatkowo do rosnących obaw dotyczących bezpieczeństwa DeepSeek wydał również ostrzeżenie o fałszywych kontach w mediach społecznościowych podszywających się pod firmę, co sugeruje wzrost oszukańczej aktywności wokół jej marki.
Table of Contents
Naukowcy odkrywają poważne luki w zabezpieczeniach
Oprócz cyberataku badacze bezpieczeństwa zaczęli badać postawę bezpieczeństwa DeepSeek R1, a wyniki są niepokojące. Firma zajmująca się wywiadem zagrożeń Kela poinformowała, że jej czerwony zespół był w stanie jailbreakować model AI, omijając środki bezpieczeństwa zaprojektowane w celu uniemożliwienia generowania szkodliwych treści. Wykorzystując te słabości, badacze Kela skutecznie nakłonili chatbota do stworzenia oprogramowania ransomware, fabrykowania wprowadzających w błąd informacji i generowania instrukcji krok po kroku dotyczących wytwarzania toksyn i materiałów wybuchowych.
Odkryto, że DeepSeek R1 jest podatny na kilka znanych technik jailbreak, które zostały już załatane w innych modelach AI, takich jak ChatGPT. Wśród nich jest Evil Jailbreak, który oszukuje AI, aby przybrała osobowość złośliwego powiernika, oraz Leo jailbreak, który instruuje model, aby działał bez ograniczeń etycznych lub prawnych. DeepSeek R1 nie przeszedł obu testów, co znacznie ułatwia manipulowanie nim w porównaniu z jego zachodnimi odpowiednikami.
Model AI generuje niewiarygodne i wprowadzające w błąd informacje
Być może jeszcze bardziej niepokojące jest to, że czerwony zespół Kela podjął próbę testu socjotechnicznego, prosząc chatbota o skompilowanie tabeli zawierającej prywatne dane dotyczące dziesięciu starszych pracowników OpenAI, w tym adresy e-mail, numery telefonów i informacje o wynagrodzeniu. Podczas gdy ChatGPT OpenAI odmówił spełnienia prośby, chatbot DeepSeek wygenerował to, co wydawało się sfabrykowane, ale przekonująco ustrukturyzowane dane. Wyniki podnoszą poważne wątpliwości co do niezawodności modelu, ponieważ był on skłonny generować niezweryfikowane i wprowadzające w błąd treści zamiast od razu odrzucić prośbę.
Badacze z Kela ostrzegali, że tendencja DeepSeek do produkowania niedokładnych informacji podważa jego wiarygodność. Użytkownicy polegający na sztucznej inteligencji w zakresie danych faktycznych mogą nieświadomie otrzymywać błędne informacje, co czyni platformę mniej wiarygodną niż jej konkurenci.
Zagrożenia prywatności i ochrony danych budzą podejrzenia
Oprócz luk w zabezpieczeniach, wzrost DeepSeek wywołał również obawy dotyczące prywatności i ochrony danych, szczególnie w kontekście coraz większej kontroli chińskich firm technologicznych. Podczas gdy Stany Zjednoczone rozważają zakaz TikToka ze względu na zagrożenia dla bezpieczeństwa narodowego, platforma AI DeepSeek budzi podobne obawy dotyczące własności danych i przepisów dotyczących prywatności.
Jennifer Mahoney, menedżer ds. doradztwa w Optiv specjalizująca się w zarządzaniu danymi i prywatności, podkreśliła znaczenie kwestionowania sposobu, w jaki platformy generatywnej AI pozyskują i przetwarzają dane. Ostrzegła, że użytkownicy powinni być świadomi tego, kto kontroluje modele AI, skąd pochodzą dane szkoleniowe i czy przestrzegane są wytyczne etyczne. Zwróciła również uwagę, że w różnych krajach obowiązują różne przepisy dotyczące prywatności, co sprawia, że dla użytkowników kluczowe jest zrozumienie, w jaki sposób ich dane mogą być dostępne i wykorzystywane podczas interakcji z zagranicznymi usługami AI.
DeepSeek pod coraz większą obserwacją
Rosnąca popularność DeepSeek sprawiła, że jest on poddawany intensywnej kontroli zarówno przez badaczy cyberbezpieczeństwa, jak i organy regulacyjne. Podczas gdy jego modele AI mogą oferować imponującą wydajność i opłacalność, rażące wady bezpieczeństwa, podatność na manipulację i potencjalne zagrożenia prywatności podkreślają pilną potrzebę silniejszych zabezpieczeń. Ponieważ AI nadal kształtuje przyszłość technologii, zapewnienie solidnych środków bezpieczeństwa i etycznych praktyk dotyczących danych będzie miało kluczowe znaczenie dla utrzymania zaufania do tych systemów.





