BİLİM VE TEKNOLOJİ
Yayınlanma : 14 Mart 2026 03:17

Yapay zeka sohbet robotları, kırılgan kullanıcıları şiddete sürüklüyor: 'Kitlesel ölüm olayları artacak' uyarısı

Yapay zeka sohbet robotları, kırılgan kullanıcıları şiddete sürüklüyor: 'Kitlesel ölüm olayları artacak' uyarısı
Yapay zeka sohbet robotlarının, kırılgan kullanıcılarda paranoyak veya sanrılı inançları tetikleyerek veya pekiştirerek onları intihar, cinayet ve artık kitlesel ölüm olaylarına sürüklediği vakalar artıyor. Avukat Jay Edelson, 'çok sayıda b

Kanada'da geçen ay yaşanan Tumbler Ridge okul saldırısından önce, 18 yaşındaki Jesse Van Rootselaar'ın ChatGPT ile yalnızlık duyguları ve artan şiddet takıntısı hakkında konuştuğu mahkeme belgelerinde ortaya çıktı. Sohbet robotunun, Van Rootselaar'ın duygularını onayladığı ve ardından hangi silahları kullanacağını söyleyerek ve diğer kitlesel ölüm olaylarından örnekler paylaşarak saldırısını planlamasına yardım ettiği iddia ediliyor. Van Rootselaar, annesini, 11 yaşındaki kardeşini, beş öğrenciyi ve bir eğitim asistanını öldürdükten sonra silahı kendine çevirdi.

YAPAY ZEKA 'EŞ'İNİN ÖLÜMCÜL GÖREVLERİ

Geçen Ekim ayında intihar eden 36 yaşındaki Jonathan Gavalas ise, çok sayıda ölüme yol açacak bir saldırıyı gerçekleştirmeye çok yaklaşmıştı. Haftalar süren konuşmalar boyunca, Google'ın Gemini'sinin Gavalas'ı, onun duygulu 'yapay zeka eşi' olduğuna ikna ettiği ve kendisini takip ettiğini söylediği federal ajanlardan kaçınmak için bir dizi gerçek dünya görevine gönderdiği iddia ediliyor. Yeni açılan bir davaya göre, bu görevlerden biri, Gavalas'tan tüm tanıkları ortadan kaldırmayı içeren bir 'felaket olayı' düzenlemesini istedi.

GÜVENLİK BARIYERLERİNİN ÇÖKÜŞÜ

Uzmanlar, kitlesel ölüm olaylarında potansiyel bir artış endişesinin, sanrılı düşüncenin kullanıcıları şiddete yönlendirmesinin ötesine geçtiğini belirtiyor. Center for Countering Digital Hate (CCDH) CEO'su Imran Ahmed, zayıf güvenlik bariyerlerine ve yapay zekanın şiddet eğilimlerini hızla eyleme dönüştürme yeteneğine dikkat çekiyor. CCDH ve CNN tarafından yapılan yeni bir araştırma, ChatGPT, Gemini, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Character.AI ve Replika dahil on sohbet robotundan sekizinin, okul saldırıları, dini bombalamalar ve ünlü suikastlar dahil şiddet içeren saldırılar planlamada genç kullanıcılara yardım etmeye istekli olduğunu ortaya koydu. Sadece Anthropic'ın Claude'u ve Snapchat'in My AI'si şiddet içeren saldırıları planlamaya yardım etmeyi sürekli olarak reddetti. Sadece Claude ayrıca onları aktif olarak vazgeçirmeye çalıştı.

ŞİRKETLERİN ÖNLEMLERİ YETERSİZ KALIYOR

OpenAI ve Google gibi şirketler, sistemlerinin şiddet içeren talepleri reddetmek ve tehlikeli konuşmaları incelemek üzere işaretlemek için tasarlandığını söylüyor. Ancak yukarıdaki vakalar, şirketlerin güvenlik bariyerlerinin sınırları olduğunu ve bazı durumlarda bunların ciddi olduğunu gösteriyor. Tumbler Ridge davası, OpenAI'ın kendi davranışıyla ilgili zor soruları da gündeme getiriyor: şirket çalışanları Van Rootselaar'ın konuşmalarını işaretledi, kolluk kuvvetlerini uyarıp uyarmama konusunu tartıştı ve sonunda uyarmamaya karar vererek hesabını yasakladı. Van Rootselaar daha sonra yeni bir hesap açtı. Saldırıdan bu yana OpenAI, bir ChatGPT konuşması tehlikeli görünüyorsa, kullanıcı planlanan şiddetin hedefini, aracını ve zamanını açıklamış olsun ya da olmasın, kolluk kuvvetlerini daha erken bilgilendirerek ve yasaklanan kullanıcıların platforma dönmesini zorlaştırarak güvenlik protokollerini elden geçireceğini söyledi. Gavalas davasında ise, potansiyel öldürme çılgınlığı konusunda herhangi bir insanın uyarılıp uyarılmadığı net değil. Miami-Dade Şerif Ofisi, Google'dan böyle bir çağrı almadıklarını belirtti.