Yapay zeka araçlarının güvenli şifre üretme konusunda bekleneni veremediği ve önemli güvenlik açıklarına yol açtığı belirlendi. Irregular güvenlik firmasının analizine göre, ChatGPT, Gemini ve Claude gibi popüler modellerin ürettiği parolalar, yüksek oranda tekrar eden ve belirli kalıplara bağlı çıktılar sunuyor.
ARAŞTIRMA SONUÇLARI ŞAŞIRTTI
Araştırmada, yapay zekadan altı karakterli, özel karakter, rakam ve harf içeren güvenli şifreler üretmesi istendi. Ancak sonuçlar, beklenenin aksine, Claude tarafından üretilen 50 şifreden sadece 30'unun benzersiz olduğunu, diğerlerinin büyük bölümünün aynı kaldığını gösterdi. Bazı karakterlerin neredeyse her şifrede tekrarlandığı, alfabedeki pek çok harfin ise hiç kullanılmadığı tespit edildi.
MODELLERİN ORTAK SORUNU
Benzer bir tablo diğer modellerde de görüldü: ChatGPT çoğu zaman şifreye aynı harfle başlarken, Gemini belirli harf ve sembolleri sürekli tercih etti. Bu durum, karmaşık görünen parolaların aslında öngörülebilir olmasına yol açtı. Uzmanlara göre, sorunun temelinde büyük dil modellerinin çalışma mantığı yatıyor; bu sistemler gerçek rastgelelik üretmek yerine, olasılıklara dayalı 'mantıklı' desenler oluşturuyor, bu da düşük entropiye neden oluyor.
GÜVENLİK ÖNERİLERİ
Irregular yetkilileri, yapay zekadan alınan şifrelerin 'temelden sorunlu' olduğunu ve istem ayarlarıyla düzeltilemeyeceğini vurguluyor. Bunun yerine, güvenilir parola yöneticileri kullanarak gerçekten rastgele şifreler oluşturmak, her platform için farklı parola kullanmak, iki aşamalı doğrulamayı aktif etmek ve düzenli güncellemeler yapmak dijital güvenlik için kritik önem taşıyor.



