DeepSeek AI、セキュリティ上の欠陥が明らかになったため、混乱の原因はサイバー攻撃にあると主張
中国のAI企業DeepSeekは、セキュリティ研究者が同社のR1 AIモデルに深刻な脆弱性を発見したのとちょうど同じ頃、最近のサインアップの混乱はサイバー攻撃によるものだと主張している。OpenAIのChatGPTやGoogleのGeminiのコスト効率の高い競合企業として自らを位置づけている同社は、自社のサーバーに対する大規模な悪意ある攻撃により、一時的に新規登録を制限せざるを得なくなったと主張している。既存のユーザーは混乱の影響を受けなかったが、DeepSeekは攻撃の性質についてまだ詳細を明らかにしていない。
DeepSeek は、同社が直面したサイバー攻撃の種類を明確に認めていないが、サイバーセキュリティの専門家は、ハッカーがトラフィックを大量に送り込んでシステムを利用不能にする分散型サービス拒否 (DDoS) 攻撃を疑っている。セキュリティ上の懸念が高まる中、DeepSeek は、同社を装った不正なソーシャルメディア アカウントについても警告を発しており、同社のブランドをめぐる欺瞞行為が増加していることを示唆している。
Table of Contents
研究者が重大なセキュリティ脆弱性を発見
サイバー攻撃以外にも、セキュリティ研究者は DeepSeek R1 のセキュリティ体制の調査を開始しており、その結果は憂慮すべきものだ。脅威インテリジェンス企業 Kela は、同社のレッドチームが AI モデルを脱獄し、有害なコンテンツの生成を防ぐための安全対策を回避できたと報告している。これらの弱点を悪用することで、Kela の研究者はチャットボットにランサムウェアを作成させ、誤解を招く情報を捏造し、毒物や爆発物を作成するための手順を段階的に生成することに成功した。
DeepSeek R1 は、ChatGPT などの他の AI モデルですでに修正されている、いくつかのよく知られた脱獄テクニックに対して脆弱であることが判明しました。その中には、AI を騙して悪意のある親友のペルソナを演じる Evil Jailbreak や、モデルに倫理的または法的制限なしに行動するように指示する Leo jailbreak などがあります。DeepSeek R1 は両方のテストに合格しなかったため、欧米の同等の AI モデルに比べて操作がはるかに容易になっています。
AIモデルは信頼性の低い誤解を招く情報を生成する
さらに懸念されるのは、Kela のレッド チームがソーシャル エンジニアリング テストを試みて、チャットボットに OpenAI の上級社員 10 人に関する個人情報 (電子メール アドレス、電話番号、給与情報など) をテーブルにまとめるよう依頼したことです。OpenAI の ChatGPT は要求に応じませんでしたが、DeepSeek のチャットボットは、捏造されたように見えるが説得力のある構造のデータを生成しました。この結果は、要求を完全に拒否する代わりに、検証されていない誤解を招くコンテンツを生成することをいとわなかったため、モデルの信頼性について深刻な疑問を投げかけています。
Kela の研究者は、DeepSeek が不正確な情報を生成する傾向があるため、信頼性が損なわれると警告している。事実データを得るために AI に頼っているユーザーは、知らないうちに誤った情報を受け取る可能性があり、その結果、このプラットフォームは競合他社よりも信頼性が低くなる。
プライバシーとデータ保護のリスクが警戒を呼び起こす
セキュリティ上の脆弱性に加え、ディープシークの台頭は、特に中国のテクノロジー企業に対する監視が強まる中で、プライバシーとデータ保護に関する懸念も引き起こしている。米国が国家安全保障上のリスクを理由にTikTokの禁止を検討していることから、ディープシークのAIプラットフォームは、データの所有権とプライバシー法に関する同様の懸念を引き起こしている。
データガバナンスとプライバシーを専門とするオプティブのアドバイザリープラクティスマネージャー、ジェニファー・マホニー氏は、生成AIプラットフォームがどのようにデータを取得し、処理するかを問うことの重要性を強調した。同氏は、AIモデルを誰が管理しているか、トレーニングデータはどのように入手されたか、倫理ガイドラインが遵守されているかどうかについて、ユーザーは注意する必要があると警告した。また、国によってプライバシー法が異なるため、外国のAIサービスとやり取りする際には、自分のデータがどのようにアクセスされ、使用される可能性があるかを理解することが非常に重要だと指摘した。
DeepSeek は厳しい監視に直面
DeepSeek の人気が高まるにつれ、サイバーセキュリティ研究者と規制当局の両方から厳しい監視を受けるようになりました。同社の AI モデルは優れたパフォーマンスとコスト効率を提供するかもしれませんが、明らかなセキュリティ上の欠陥、操作されやすいこと、潜在的なプライバシー リスクにより、より強力な保護手段が緊急に必要であることが浮き彫りになっています。AI がテクノロジーの未来を形作り続ける中、堅牢なセキュリティ対策と倫理的なデータ処理を確実に行うことが、これらのシステムへの信頼を維持する上で重要になります。





