OpenAI CEO'su Sam Altman'ın kendi itirafıyla, şirketin Savunma Bakanlığı ile yaptığı anlaşma "kesinlikle aceleye geldi" ve "optikleri iyi görünmüyor".
Anlaşmanın Detayları ve Eleştiriler
Anthropic ile Pentagon arasındaki müzakerelerin Cuma günü sonuçsuz kalmasının ardından, Başkan Donald Trump federal ajanslara Anthropic'in teknolojisini altı aylık bir geçiş süresinden sonra kullanmayı durdurmaları yönünde talimat verdi. Savunma Bakanı Pete Hegseth ise yapay zeka şirketini tedarik zinciri riski olarak belirlediğini açıkladı. Ardından OpenAI, modellerinin sınıflandırılmış ortamlarda konuşlandırılması için bir anlaşmaya vardığını duyurdu. Anthropic'in tamamen otonom silahlar veya kitlesel iç gözetim kullanımına ilişkin kırmızı çizgiler çizmesi ve Altman'ın OpenAI'ın da aynı kırmızı çizgilere sahip olduğunu belirtmesi üzerine bazı bariz sorular ortaya çıktı: OpenAI, güvenlik önlemleri konusunda dürüst müydü? Anthropic anlaşma yapamazken neden OpenAI yapabildi?
Güvenlik Önlemleri ve Reddedilen Kullanım Alanları
OpenAI yöneticileri sosyal medyada anlaşmayı savunurken, şirket yaklaşımını özetleyen bir blog yazısı da yayınladı. Yazıda, OpenAI modellerinin kullanılamayacağı üç alana işaret edildi: kitlesel iç gözetim, otonom silah sistemleri ve "yüksek riskli otomatik kararlar (örneğin 'sosyal kredi' gibi sistemler)". Şirket, diğer yapay zeka şirketlerinin "güvenlik bariyerlerini azalttığı veya kaldırdığı ve ulusal güvenlik konuşlandırmalarında öncelikli olarak kullanım politikalarına dayandığı" ile karşılaştırıldığında, OpenAI'ın anlaşmasının kırmızı çizgilerini "daha geniş, çok katmanlı bir yaklaşımla" koruduğunu belirtti. Blogda "Güvenlik yığınımız üzerinde tam takdire sahibiz, bulut üzerinden dağıtım yapıyoruz, onaylı OpenAI personeli devrede ve güçlü sözleşme güvencelerimiz var. Bunların hepsi, ABD yasalarındaki güçlü mevcut güvencelere ek olarak." denildi. Şirket ayrıca, "Anthropic'in neden bu anlaşmayı yapamadığını bilmiyoruz ve onların ve daha fazla laboratuvarın bunu değerlendirmesini umuyoruz." diye ekledi. Mike Masnick, anlaşmanın "kesinlikle iç gözetime izin verdiğini" iddia etti, çünkü "özel verilerin toplanmasının 12333 sayılı Başkanlık Kararnamesine (ve bir dizi başka yasaya) uyacağını" belirtti. Masnick, bu kararnamenin "NSA'nın ABD şahıslarına ait bilgiler içerse bile, ABD dışındaki hatlara dokunarak iletişimi ele geçirerek kendi iç gözetimini nasıl gizlediği" olarak tanımladı. OpenAI'ın ulusal güvenlik ortaklıkları başkanı Katrina Mulligan, bu tartışmaların çoğunun "Amerikalılar ile yapay zeka kullanımı arasındaki kitlesel iç gözetim ve otonom silahlar arasındaki tek şeyin Savaş Bakanlığı ile yapılan tek bir sözleşmedeki tek bir kullanım politikası hükmü olduğunu varsaydığını" savundu. Mulligan, "İşlerin işleyiş şekli bu değil" diyerek, "Dağıtım mimarisi sözleşme dilinden daha önemlidir. Dağıtımımızı bulut API ile sınırlayarak, modellerimizin doğrudan silah sistemlerine, sensörlere veya diğer operasyonel donanımlara entegre edilemeyeceğini garanti edebiliriz." dedi. Altman da X'te anlaşmayla ilgili soruları yanıtladı ve aceleye geldiğini ve OpenAI'a karşı önemli tepkilere yol açtığını kabul etti (Anthropic'in Claude'u Cumartesi günü Apple'ın App Store'unda OpenAI'ın ChatGPT'sini geride bıraktı). Peki neden yapıldı? Altman, "Gerçekten işleri azaltmak istedik ve teklif edilen anlaşmanın iyi olduğunu düşündük" dedi. "Eğer haklıysak ve bu [Savaş Bakanlığı] ile sektör arasındaki gerginliğin azalmasına yol açarsa, dahi görüneceğiz ve sektör için işler yapmak için çok acı çeken bir şirket olacağız. Değilse, aceleci ve dikkatsiz olarak nitelendirilmeye devam edeceğiz."



