Yapay zeka şirketi OpenAI'ın, Kanada'da yaşanan trajik bir okul saldırısını aylar önce tespit etmiş olabileceği ancak polise bildirmediği ortaya çıktı. Wall Street Journal'ın özel haberine göre, saldırganın ChatGPT ile yaptığı tehlikeli konuşmalar, şirketin güvenlik sistemleri tarafından işaretlenmişti. Bu durum, şirketin kullanıcı gizliliği ile kamu güvenliği arasındaki hassas dengeyi sorgulatıyor.

ŞİRKET İÇİNDE TARTIŞMA YAŞANDI
Saldırıyı düzenleyen Jesse Van Rootselaar'ın ChatGPT'deki yazışmaları, potansiyel bir tehdit olarak işaretlendi ve çok sayıda OpenAI çalışanı tarafından incelendi. Haberlere göre, şirket içinde ciddi bir tartışma yaşandı. Bazı çalışanlar, yazışmaların somut bir fiziksel şiddet tehdidi içerdiğini savunarak durumun derhal Kanada polisine bildirilmesi için yöneticilere baskı yaptı. Ancak, bu talepler sonuçsuz kaldı ve son kararın ihbarda bulunmamak yönünde olduğu belirtildi.
OPENAI'IN GEREKÇESİ VE ETİK İKİLEM
OpenAI sözcüsü, şirketin durumu ciddiye aldığını ve söz konusu şahsın hesabını kapattığını doğruladı. Sözcü, paylaşımların polise haber verme kriterlerini karşılamadığına karar verdiklerini ifade etti. Şirketin politikasına göre, bir kullanıcının ihbar edilmesi için paylaşımlarının "ciddi ve her an gerçekleşebilecek bir risk" taşıması gerekiyor. Bu olay, yapay zeka şirketlerinin etik sorumlulukları ve yasal yükümlülükleri konusunda önemli bir tartışmayı yeniden alevlendirdi. Bir yandan kullanıcıların özel konuşmalarının gizliliği, diğer yandan bu platformların potansiyel suçları önlemedeki rolü, teknoloji dünyasının çözüm bulması gereken büyük bir zorluk olarak öne çıkıyor.


