DeepSeek AI macht Cyberangriffe für Störungen verantwortlich, nachdem Sicherheitslücken aufgedeckt wurden

Das chinesische KI-Unternehmen DeepSeek hat die jüngsten Unterbrechungen bei der Anmeldung auf einen Cyberangriff zurückgeführt, während Sicherheitsforscher gerade ernsthafte Schwachstellen in seinem KI-Modell R1 entdecken. Das Unternehmen, das sich als kostengünstiger Konkurrent zu ChatGPT von OpenAI und Gemini von Google positioniert hat, behauptete, dass groß angelegte bösartige Angriffe auf seine Server es dazu gezwungen hätten, Neuanmeldungen vorübergehend einzuschränken. Bestehende Benutzer waren von den Unterbrechungen nicht betroffen, aber DeepSeek hat noch keine weiteren Einzelheiten zur Art des Angriffs bekannt gegeben.

DeepSeek bestätigte zwar nicht ausdrücklich, um welche Art von Cyberangriff es sich handelte, aber Cybersicherheitsexperten vermuten einen Distributed-Denial-of-Service-Angriff (DDoS), bei dem Hacker ein System mit Datenverkehr überlasten, um es unzugänglich zu machen. Zusätzlich zu den wachsenden Sicherheitsbedenken gab DeepSeek auch eine Warnung vor betrügerischen Social-Media-Konten heraus, die sich als das Unternehmen ausgeben, was auf eine Zunahme betrügerischer Aktivitäten rund um seine Marke hindeutet.

Forscher decken schwerwiegende Sicherheitslücken auf

Über den Cyberangriff hinaus haben Sicherheitsforscher begonnen, die Sicherheitslage von DeepSeek R1 zu untersuchen, und die Ergebnisse sind beunruhigend. Das Bedrohungsanalyseunternehmen Kela berichtete, dass sein Red Team das KI-Modell jailbreaken und dabei Sicherheitsmaßnahmen umgehen konnte, die verhindern sollen, dass schädliche Inhalte generiert werden. Indem sie diese Schwachstellen ausnutzten, konnten Kelas Forscher den Chatbot erfolgreich dazu bringen, Ransomware zu erstellen, irreführende Informationen zu erfinden und Schritt-für-Schritt-Anleitungen zur Herstellung von Giften und Sprengstoffen zu generieren.

DeepSeek R1 erwies sich als anfällig für mehrere bekannte Jailbreak-Techniken, die bereits in anderen KI-Modellen wie ChatGPT gepatcht wurden. Dazu gehören der Evil Jailbreak, der eine KI dazu bringt, die Rolle eines böswilligen Vertrauten anzunehmen, und der Leo Jailbreak, der das Modell anweist, ohne ethische oder rechtliche Einschränkungen zu handeln. DeepSeek R1 hat beide Tests nicht bestanden und ist damit im Vergleich zu seinen westlichen Gegenstücken deutlich leichter zu manipulieren.

KI-Modell liefert unzuverlässige und irreführende Informationen

Vielleicht noch besorgniserregender ist, dass Kelas Red Team einen Social-Engineering-Test versuchte, indem es den Chatbot bat, eine Tabelle mit privaten Daten über zehn leitende OpenAI-Mitarbeiter zusammenzustellen, darunter E-Mail-Adressen, Telefonnummern und Gehaltsinformationen. Während OpenAIs ChatGPT sich weigerte, der Aufforderung nachzukommen, generierte DeepSeeks Chatbot scheinbar gefälschte, aber überzeugend strukturierte Daten. Die Ergebnisse werfen ernsthafte Fragen zur Zuverlässigkeit des Modells auf, da es bereit war, ungeprüfte und irreführende Inhalte zu generieren, anstatt die Anfrage rundheraus abzulehnen.

Die Forscher von Kela warnten, dass die Tendenz von DeepSeek, ungenaue Informationen zu produzieren, seine Glaubwürdigkeit untergräbt. Benutzer, die sich bei der Informationsbeschaffung auf die KI verlassen, erhalten möglicherweise unwissentlich falsche Informationen, was die Plattform weniger vertrauenswürdig macht als ihre Konkurrenten.

Risiken für Privatsphäre und Datenschutz geben Anlass zur Sorge

Neben Sicherheitslücken hat DeepSeeks Aufstieg auch Bedenken hinsichtlich Privatsphäre und Datenschutz geweckt, insbesondere im Zusammenhang mit der zunehmenden Kontrolle chinesischer Technologieunternehmen. Da die Vereinigten Staaten aufgrund nationaler Sicherheitsrisiken ein Verbot von TikTok in Erwägung ziehen, weckt DeepSeeks KI-Plattform ähnliche Bedenken hinsichtlich Dateneigentum und Datenschutzgesetzen.

Jennifer Mahoney, eine auf Datenverwaltung und Datenschutz spezialisierte Beratungspraxismanagerin bei Optiv, betonte, wie wichtig es sei, zu hinterfragen, wie generative KI-Plattformen Daten erhalten und verarbeiten. Sie warnte, dass Benutzer darauf achten sollten, wer die KI-Modelle kontrolliert, woher die Trainingsdaten stammen und ob ethische Richtlinien eingehalten wurden. Sie wies auch darauf hin, dass verschiedene Länder unterschiedliche Datenschutzgesetze haben, weshalb es für Benutzer von entscheidender Bedeutung ist, zu verstehen, wie auf ihre Daten zugegriffen und wie sie verwendet werden können, wenn sie mit ausländischen KI-Diensten interagieren.

DeepSeek gerät zunehmend unter die Lupe

Aufgrund der wachsenden Popularität von DeepSeek steht das System nun unter intensiver Beobachtung von Cybersicherheitsforschern und Aufsichtsbehörden. Die KI-Modelle des Unternehmens bieten zwar eine beeindruckende Leistung und Kosteneffizienz, aber die eklatanten Sicherheitsmängel, die Anfälligkeit für Manipulationen und die potenziellen Datenschutzrisiken machen deutlich, dass dringend stärkere Schutzmaßnahmen erforderlich sind. Da KI weiterhin die Zukunft der Technologie prägt, sind robuste Sicherheitsmaßnahmen und ethische Datenschutzpraktiken von entscheidender Bedeutung, um das Vertrauen in diese Systeme aufrechtzuerhalten.

January 29, 2025
Lade...

Cyclonis Password Manager Details & Terms

KOSTENLOSE Testversion: 30-tägiges einmaliges Angebot! Für die kostenlose Testversion ist keine Kreditkarte erforderlich. Volle Funktionalität für die Dauer der kostenlosen Testversion. (Die volle Funktionalität nach der kostenlosen Testversion erfordert den Kauf eines Abonnements.) Um mehr über unsere Richtlinien und Preise zu erfahren, sehen Sie EULA, Datenschutzrichtlinie, Rabattbedingungen und Kaufseite. Wenn Sie die App deinstallieren möchten, besuchen Sie bitte die Seite mit den Deinstallationsanweisungen.