DeepSeek AI обвиняет кибератаки в сбоях, поскольку обнаружены уязвимости безопасности
Китайская компания ИИ DeepSeek обвинила недавние перебои с регистрацией в кибератаке, как раз в то время, когда исследователи безопасности обнаружили серьезные уязвимости в ее модели ИИ R1. Компания, которая позиционировала себя как экономически эффективный конкурент OpenAI ChatGPT и Google Gemini, заявила, что масштабные вредоносные атаки на ее серверы заставили ее временно ограничить новые регистрации. Существующие пользователи не пострадали от перебоев, но DeepSeek пока не предоставила дополнительных подробностей о характере атаки.
Хотя DeepSeek не подтвердила явно тип кибератаки, с которой она столкнулась, эксперты по кибербезопасности подозревают атаку типа «распределенный отказ в обслуживании» (DDoS), при которой хакеры перегружают систему трафиком, чтобы сделать ее недоступной. В дополнение к растущим опасениям по поводу безопасности, DeepSeek также выпустила предупреждение о мошеннических аккаунтах в социальных сетях, выдающих себя за компанию, что свидетельствует об увеличении мошеннической активности вокруг ее бренда.
Table of Contents
Исследователи обнаружили серьезные уязвимости безопасности
Помимо кибератаки, исследователи безопасности начали изучать состояние безопасности DeepSeek R1, и результаты вызывают беспокойство. Фирма по анализу угроз Kela сообщила, что ее красная команда смогла взломать модель ИИ, обойдя меры безопасности, разработанные для предотвращения создания вредоносного контента. Используя эти уязвимости, исследователи Kela успешно заставили чат-бота создать вирус-вымогатель, сфабриковать вводящую в заблуждение информацию и сгенерировать пошаговые инструкции по изготовлению токсинов и взрывчатых веществ.
DeepSeek R1 оказался уязвимым к нескольким известным методам джейлбрейка, которые уже были исправлены в других моделях ИИ, таких как ChatGPT. Среди них — Evil Jailbreak, который обманывает ИИ, заставляя его принять облик злонамеренного доверенного лица, и Leo jailbreak, который предписывает модели действовать без этических или правовых ограничений. DeepSeek R1 провалил оба теста, что значительно облегчило его манипуляцию по сравнению с западными аналогами.
Модель ИИ выдает ненадежную и вводящую в заблуждение информацию
Возможно, еще более тревожным является то, что красная команда Kela попыталась провести тест социальной инженерии, попросив чат-бота составить таблицу, содержащую личные данные о десяти старших сотрудниках OpenAI, включая адреса электронной почты, номера телефонов и информацию о зарплате. В то время как ChatGPT OpenAI отказался выполнить запрос, чат-бот DeepSeek сгенерировал то, что выглядело как сфабрикованные, но убедительно структурированные данные. Результаты вызывают серьезные вопросы о надежности модели, поскольку она была готова сгенерировать непроверенный и вводящий в заблуждение контент вместо того, чтобы прямо отклонить запрос.
Исследователи Kela предупредили, что склонность DeepSeek выдавать неточную информацию подрывает ее авторитет. Пользователи, полагающиеся на ИИ для получения фактических данных, могут неосознанно получать дезинформацию, что делает платформу менее надежной, чем ее конкуренты.
Риски, связанные с конфиденциальностью и защитой данных, вызывают тревогу
Помимо уязвимостей безопасности, рост DeepSeek также вызвал опасения по поводу конфиденциальности и защиты данных, особенно в контексте усиления контроля над китайскими технологическими компаниями. Поскольку Соединенные Штаты рассматривают возможность запрета TikTok из-за рисков для национальной безопасности, платформа ИИ DeepSeek вызывает аналогичные опасения по поводу законов о владении данными и конфиденциальности.
Дженнифер Махони, менеджер по консультационной практике в Optiv, специализирующаяся на управлении данными и конфиденциальности, подчеркнула важность вопросов о том, как платформы генеративного ИИ получают и обрабатывают данные. Она предупредила, что пользователи должны помнить о том, кто контролирует модели ИИ, как были получены данные для обучения и соблюдались ли этические принципы. Она также указала на то, что в разных странах действуют разные законы о конфиденциальности, поэтому пользователям важно понимать, как их данные могут быть доступны и использованы при взаимодействии с зарубежными службами ИИ.
DeepSeek сталкивается с растущим вниманием
Растущая популярность DeepSeek поставила его под пристальное внимание как исследователей кибербезопасности, так и регулирующих органов. Хотя его модели ИИ могут предложить впечатляющую производительность и экономическую эффективность, вопиющие недостатки безопасности, подверженность манипуляциям и потенциальные риски для конфиденциальности подчеркивают настоятельную необходимость в более надежных мерах безопасности. Поскольку ИИ продолжает формировать будущее технологий, обеспечение надежных мер безопасности и этических методов обработки данных будет иметь решающее значение для поддержания доверия к этим системам.





