BİLİM VE TEKNOLOJİ
Yayınlanma : 23 Şubat 2026 07:13

Yapay zeka şifreleri güvenliği tehlikeye atıyor

Yapay zeka şifreleri güvenliği tehlikeye atıyor
Yapay zeka ile üretilen şifrelerin güvenlik açıkları yarattığı ve bu durumun ciddi sorunlar doğurabileceği bildirildi.

Kullanıcıların güvenli şifreler oluşturmak için başvurduğu yapay zeka araçlarının, beklenenden daha az güvenli şifreler ürettiği bir araştırma ile gün yüzüne çıktı.

YAPAY ZEKA ŞİFRELERİNDEKİ TEKRARLAMA SORUNU

Güvenlik firması Irregular tarafından gerçekleştirilen incelemeler, OpenAI’nin ChatGPT'si, Google'ın Gemini'si ve Anthropic'in Claude'u gibi popüler yapay zeka modellerinin şifreleme konusunda zayıf noktalarını ortaya koydu. Araştırmada, bu yapay zeka modellerinden altı karakterli, özel karakter, rakam ve harf içeren güçlü şifreler üretmeleri istendi. Ancak elde edilen sonuçlar, yüksek oranda tekrar eden ve belirli kalıplara sıkışmış şifrelerden oluştu. Örneğin, Claude'un ürettiği 50 şifreden yalnızca 30'u benzersizdi, geri kalanlar ise benzerlikler taşıyordu.

ÖNGÖRÜLEBİLİR ŞİFRELER GÜVENLİK AÇIĞI YARATIYOR

Diğer yapay zeka modellerinde de benzer sorunlar gözlemlendi. ChatGPT'nin şifreleri genellikle aynı harfle başlama eğilimindeyken, Gemini'nin belirli harf ve sembolleri sürekli kullanma alışkanlığı, karmaşık görünen parolaların öngörülebilir hale gelmesine sebep oldu. Uzmanlar, bu durumun büyük dil modellerinin çalışma prensiplerinden kaynaklandığını belirtiyor. Gerçek rastgelelik yerine olasılıklara dayalı mantıksal desenler oluşturan bu sistemler, güvenilir şifreler üretmekte yetersiz kalıyor. Irregular yetkilileri, yapay zeka ile üretilen şifrelerin güvenlik sorunları barındırdığını ve bu durumun düzeltilmesinin mümkün olmadığını vurgulayarak, kullanıcıları güvenilir parola yöneticileri aracılığıyla gerçek rastgele şifreler oluşturmaya teşvik ediyor.