BİLİM VE TEKNOLOJİ
Yayınlanma : 26 Şubat 2026 11:17

Yapay zeka devi Anthropic, güvenlik sözünden döndü: Kurallar esniyor, rekabet öne geçiyor

Yapay zeka devi Anthropic, güvenlik sözünden döndü: Kurallar esniyor, rekabet öne geçiyor
Yapay zeka şirketi Anthropic, güvenlik önlemleri tam olarak garanti altına alınmadan yeni modeller geliştirmeyeceği yönündeki temel sözünden vazgeçti. Şirket, rekabetçi ortam ve jeopolitik aciliyet nedeniyle daha esnek bir yaklaşım benimsey

Claude'un geliştiricisi yapay zeka şirketi Anthropic, Time dergisine verdiği röportajda güvenlik politikalarında önemli bir değişikliğe giderek, gerekli güvenlik önlemleri garanti altına alınmadan yeni yapay zeka modelleri eğitmeyeceği veya bunları piyasaya sürmeyeceği yönündeki temel sözünden resmen vazgeçtiğini duyurdu.

YENİ GÜVENLİK ANLAYIŞI: ŞEFFAFLIK VE YOL HARİTALARI

Daha önce sektördeki rakiplerinden ayıran bu katı politikasını değiştiren Anthropic, artık daha esnek bir yaklaşım benimseyecek. Şirket bundan böyle yapay zeka geliştirmelerini tamamen durdurmak gibi katı ön koşullar yerine, hazırlayacağı şeffaflık raporlarına ve güvenlik yol haritalarına güveneceğini belirtti. Şirket yöneticileri alınan bu kararın ideolojik bir geri adım değil, tamamen pragmatik bir tercih olduğunu vurguluyor. Hızla gelişen yapay zeka pazarındaki yoğun ticari rekabet ve jeopolitik aciliyet, şirketin tek taraflı kısıtlamalara devam etmesini mantıksız bir hale getirdi.

REKABET VE SİYASİ İKLİMİN ETKİSİ

Yeni duyurulan “Sorumlu Ölçeklendirme Politikası” kapsamında Anthropic, yetenekleri ve olası tehditleri değerlendiren düzenli Risk Raporları ile birlikte Sınır Güvenliği Yol Haritaları yayımlayacak. Şirket yalnızca alanda lider konumda olduğuna inanırsa ve felaket boyutunda büyük bir risk tespit ederse geliştirme sürecini duraklatacak. Ancak tüm riskler çözülene kadar eğitimi peşinen durdurma sözü artık geçerli olmayacak. ABD'de federal yapay zeka yasalarının bir türlü çıkmaması da şirketleri gönüllü kısıtlama ile rekabette hayatta kalma arasında zorlu bir seçime itiyor. RAIDS AI CEO’su Nik Kairinos, Anthropic’in temel güvenlik sözünden vazgeçmesinin bağımsız denetimlerin ve bağlayıcı resmi düzenlemelerin ne kadar şart olduğunu açıkça gösterdiğini savundu. Kairinos ayrıca, Anthropic’in henüz birkaç hafta önce yapay zeka güvenlik yasalarını destekleyen siyasilere 20 milyon dolar bağışta bulunmasının büyük bir ironi olduğunu ve mevcut durumun karmaşıklığını yansıttığını sözlerine ekledi.