DeepSeek’in güvenliğiyle ilgili yayımlanan yeni bir rapor, platformun güvenlik açıklarının düşündüğünden çok daha ciddi olduğunu ortaya koyuyor. Çinli girişim, R1 AI modeliyle kısa sürede büyük ilgi görmüş ve OpenAI’nin ChatGPT’si ile Meta’nın Llama’sına rakip olacak düzeyde bir yapay zeka geliştirmişti. Üstelik bu başarı, rakiplerine kıyasla çok daha düşük maliyetlerle elde edilmişti. Ancak popülaritesinin hızla artmasının ardından büyük çaplı bir siber saldırıya maruz kalan DeepSeek’in güvenlik önlemlerinin yetersiz olduğu yapılan araştırmalarla ortaya çıktı.
DeepSeek’in R1 yapay zeka modelinde güvenlik açığı tespit edildi
Wiz adlı bulut güvenlik şirketi tarafından yayımlanan raporda, DeepSeek’in dış güvenlik önlemlerinin ciddi zafiyetler içerdiği belirtiliyor. Araştırma ekibi, DeepSeek’e ait bir ClickHouse veritabanını yalnızca birkaç dakika içinde tespit etti ve bu veritabanının tamamen açık ve kimlik doğrulama gerektirmeden erişilebilir olduğunu bildirdi.
Güvenlik açığı nedeniyle, sohbet geçmişi, arka uç verileri, API anahtarları, günlük akışları ve operasyonel detaylar gibi hassas verilerin ifşa olduğu belirtiliyor. Daha da endişe verici olan ise, saldırganların yalnızca bu verilere erişmekle kalmayıp, veritabanını tamamen kontrol edebilme ve DeepSeek’in sisteminde yetki yükseltme işlemleri gerçekleştirebilme imkanına sahip olmasıydı.
Xiaomi 15 Ultra’nın global versiyonu bu renklerle geliyor!
Bu tür güvenlik açıkları, sadece DeepSeek kullanıcılarının değil, şirketin kendi güvenliğini de riske atıyor. Raporda, kötü niyetli aktörlerin bu açıkları kullanarak hassas günlükleri ve sohbet mesajlarını çalabileceği, ayrıca şifreler ve yerel dosyalar gibi kritik bilgileri ele geçirebileceği vurgulanıyor. Bu durum, DeepSeek’in daha güçlü kimlik doğrulama ve güvenlik önlemleri geliştirmesi gerektiğini gösteriyor. Eğer DeepSeek’in güvenlik açıkları endişe verici bulunuyorsa, kullanıcıların tercih edebileceği birçok alternatif yapay zeka platformu bulunuyor.
Yesilrobot.com e-bültenine kaydolarak, her hafta 15 bine yakın Yeşil Robot okurunun yaptığı gibi, tüm güncellemeleri E-posta kutunuzdan takip edebilirsiniz. Abonelik için tıklayınız