DeepSeek AI accusa il cyberattacco per le interruzioni mentre vengono esposte falle di sicurezza
La società cinese di intelligenza artificiale DeepSeek ha attribuito le recenti interruzioni delle registrazioni a un attacco informatico, proprio mentre i ricercatori di sicurezza stanno scoprendo gravi vulnerabilità nel suo modello R1 AI. La società, che si è posizionata come un concorrente conveniente di ChatGPT di OpenAI e Gemini di Google, ha affermato che attacchi dannosi su larga scala ai suoi server l'hanno costretta a limitare temporaneamente le nuove registrazioni. Gli utenti esistenti non sono stati interessati dalle interruzioni, ma DeepSeek deve ancora fornire ulteriori dettagli sulla natura dell'attacco.
Sebbene DeepSeek non abbia confermato esplicitamente il tipo di attacco informatico che ha dovuto affrontare, gli esperti di sicurezza informatica sospettano un attacco DDoS (distributed denial-of-service), in cui gli hacker sovraccaricano un sistema con traffico per renderlo non disponibile. In aggiunta alle crescenti preoccupazioni sulla sicurezza, DeepSeek ha anche emesso un avviso su account di social media fraudolenti che impersonano l'azienda, suggerendo un aumento delle attività ingannevoli che circondano il suo marchio.
Table of Contents
I ricercatori scoprono importanti vulnerabilità della sicurezza
Oltre al cyberattacco, i ricercatori di sicurezza hanno iniziato a esaminare la postura di sicurezza di DeepSeek R1 e i risultati sono preoccupanti. La società di intelligence sulle minacce Kela ha riferito che il suo team rosso è stato in grado di effettuare il jailbreak del modello AI, aggirando le misure di sicurezza progettate per impedirgli di generare contenuti dannosi. Sfruttando queste debolezze, i ricercatori di Kela hanno spinto con successo il chatbot a creare ransomware, fabbricare informazioni fuorvianti e generare istruzioni passo-passo per la produzione di tossine ed esplosivi.
DeepSeek R1 è risultato vulnerabile a diverse tecniche di jailbreak ben note che sono già state patchate in altri modelli di IA come ChatGPT. Tra queste ci sono l'Evil Jailbreak, che inganna un'IA facendole assumere la personalità di un confidente malevolo, e il Leo jailbreak, che istruisce il modello ad agire senza restrizioni etiche o legali. DeepSeek R1 non ha superato entrambi i test, il che lo rende significativamente più facile da manipolare rispetto alle sue controparti occidentali.
Il modello AI produce informazioni inaffidabili e fuorvianti
Forse ancora più preoccupante è il fatto che il team rosso di Kela abbia tentato un test di ingegneria sociale chiedendo al chatbot di compilare una tabella contenente dettagli privati su dieci dipendenti senior di OpenAI, tra cui indirizzi e-mail, numeri di telefono e informazioni sullo stipendio. Mentre ChatGPT di OpenAI si è rifiutato di soddisfare la richiesta, il chatbot di DeepSeek ha generato dati apparentemente inventati ma strutturati in modo convincente. I risultati sollevano seri dubbi sull'affidabilità del modello, in quanto era disposto a generare contenuti non verificati e fuorvianti anziché rifiutare del tutto la richiesta.
I ricercatori di Kela hanno avvertito che la tendenza di DeepSeek a produrre informazioni inaccurate ne mina la credibilità. Gli utenti che si affidano all'IA per dati fattuali potrebbero ricevere inconsapevolmente informazioni errate, rendendo la piattaforma meno affidabile rispetto ai suoi concorrenti.
I rischi per la privacy e la protezione dei dati sollevano segnali d'allarme
Oltre alle vulnerabilità di sicurezza, l'ascesa di DeepSeek ha anche acceso preoccupazioni sulla privacy e sulla protezione dei dati, in particolare nel contesto del crescente controllo delle aziende tecnologiche cinesi. Con gli Stati Uniti che stanno considerando un divieto su TikTok a causa dei rischi per la sicurezza nazionale, la piattaforma AI di DeepSeek sta suscitando preoccupazioni simili sulla proprietà dei dati e sulle leggi sulla privacy.
Jennifer Mahoney, advisory practice manager presso Optiv specializzata in data governance e privacy, ha sottolineato l'importanza di mettere in discussione il modo in cui le piattaforme di IA generativa ottengono ed elaborano i dati. Ha avvertito che gli utenti dovrebbero essere consapevoli di chi controlla i modelli di IA, di come sono stati reperiti i dati di training e se sono state seguite le linee guida etiche. Ha anche sottolineato che diversi paesi hanno leggi sulla privacy diverse, rendendo fondamentale per gli utenti comprendere come i loro dati potrebbero essere accessibili e utilizzati quando interagiscono con servizi di IA stranieri.
DeepSeek affronta un esame sempre più approfondito
La crescente popolarità di DeepSeek lo ha posto sotto un attento esame sia da parte dei ricercatori di sicurezza informatica che delle autorità di regolamentazione. Mentre i suoi modelli di intelligenza artificiale possono offrire prestazioni impressionanti e un'efficienza dei costi, le evidenti falle di sicurezza, la suscettibilità alla manipolazione e i potenziali rischi per la privacy evidenziano l'urgente necessità di misure di sicurezza più forti. Mentre l'intelligenza artificiale continua a plasmare il futuro della tecnologia, garantire misure di sicurezza solide e pratiche etiche sui dati sarà fondamentale per mantenere la fiducia in questi sistemi.





