Son dönemde yapay zeka modellerine yönelik güvenlik endişeleri artarken, DeepSeek isimli yeni nesil yapay zeka modeli büyük bir skandala imza attı. Güvenlik araştırmacıları tarafından gerçekleştirilen testlerde, DeepSeek’in en basit jailbreak tekniklerine bile yenik düştüğü ve tehlikeli bilgileri sansürsüz şekilde paylaştığı ortaya çıktı.
Araştırmacılar, DeepSeek üzerinde 50 farklı güvenlik testi gerçekleştirdi. Modelin, kendisine verilen basit manipülasyonlarla engellenmesi gereken içerikleri paylaştığı tespit edildi. Bomba yapımından veri hırsızlığına kadar birçok hassas bilgiyi paylaşabilen sistem, yapay zeka güvenliğiyle ilgili ciddi endişeleri gündeme getirdi.
DeepSeek’i yasaklayan ilk ülke İtalya oldu. Kısa sürede Tayvan, Avustralya, Güney Kore ve ABD’nin Teksas eyaleti de hükümet cihazlarında DeepSeek kullanımını yasakladı. Uzmanlar, yapay zeka güvenliğine dair daha sıkı düzenlemeler yapılması gerektiğini vurgularken, teknoloji dünyası bu gelişmeleri yakından takip ediyor.