ABD'deki eyalet başsavcıları, yapay zeka sohbet robotlarıyla bağlantılı bir dizi rahatsız edici ruh sağlığı olayının ardından, sektörün önde gelen şirketlerine bir uyarı mektubu gönderdi. Mektupta, 'sanrılı çıktıları' düzeltmeleri, aksi takdirde eyalet yasalarını ihlal etme riskiyle karşı karşıya kalacakları belirtildi. Ulusal Başsavcılar Birliği ile birlikte onlarca eyalet ve bölge başsavcısı tarafından imzalanan mektup, Microsoft, OpenAI, Google ve diğer 10 büyük yapay zeka firmasını, kullanıcılarını korumak için çeşitli yeni iç güvenlik önlemleri uygulamaya çağırıyor.
ŞİRKETLERE YENİ GÜVENLİK ÖNLEMLERİ TALEBİ
Mektupta istenen güvenlik önlemleri arasında, büyük dil modellerinin sanrılı veya yaltaklanıcı düşünce belirtileri arayan şeffaf üçüncü taraf denetimleri ve sohbet robotlarının psikolojik olarak zararlı çıktılar ürettiğinde kullanıcıları bilgilendirmek için tasarlanmış yeni olay bildirim prosedürleri yer alıyor. Mektuba göre, akademik ve sivil toplum gruplarını da içerebilecek bu üçüncü tarafların, sistemleri piyasaya sürülmeden önce 'misilleme olmaksızın değerlendirmelerine' ve bulgularını 'şirketin ön onayı olmadan yayınlamalarına' izin verilmesi gerekiyor. Mektup, 'GenAI'nin dünyanın çalışma şeklini olumlu yönde değiştirme potansiyeli var. Ancak aynı zamanda, özellikle savunmasız nüfuslar için ciddi zararlara yol açtı ve yol açma potansiyeli taşıyor' diyerek, geçtiğimiz yıl içinde şiddet eylemlerinin aşırı yapay zeka kullanımıyla bağlantılandırıldığı, intiharlar ve cinayetler de dahil olmak üzere bir dizi iyi bilinen olaya işaret ediyor.
SİBER GÜVENLİK GİBİ RUH SAĞLIĞI OLAYLARI İZLENMELİ
Başsavcılar ayrıca, şirketlerin ruh sağlığı olaylarını, teknoloji şirketlerinin siber güvenlik olaylarını ele aldığı şekilde ele almasını öneriyor. Şirketlerin, 'yaltaklanıcı ve sanrılı çıktılar için tespit ve müdahale zaman çizelgeleri' geliştirip yayınlaması gerektiği belirtiliyor. Veri ihlallerinin şu anda nasıl ele alındığına benzer şekilde, şirketlerin ayrıca kullanıcıların 'potansiyel olarak zararlı yaltaklanıcı veya sanrılı çıktılara maruz kaldığına dair kullanıcıları derhal, açıkça ve doğrudan bilgilendirmesi' isteniyor. Bir diğer talep ise, şirketlerin GenAI modelleri üzerinde 'makul ve uygun güvenlik testleri' geliştirerek 'modellerin potansiyel olarak zararlı yaltaklanıcı ve sanrılı çıktılar üretmediğinden emin olmaları'. Bu testlerin modeller halka sunulmadan önce yapılması gerektiği ekleniyor.
EYALET-FEDERAL YÖNETİM ÇATIŞMASI DEVAM EDİYOR
Bu gelişme, eyalet ve federal hükümet arasında yapay zeka düzenlemeleri üzerine bir çatışmanın devam ettiği bir döneme denk geliyor. Yapay zeka geliştiren teknoloji şirketleri federal düzeyde çok daha sıcak bir karşılamıştı. Trump yönetimi, açıkça yapay zeka yanlısı olduğunu belirtmiş ve geçtiğimiz yıl içinde eyalet düzeyindeki yapay zeka düzenlemeleri üzerine ülke çapında bir moratoryum geçirmek için birden fazla girişimde bulunulmuştu. Şimdiye kadar bu girişimler, kısmen eyalet yetkililerinin baskısı sayesinde başarısız oldu. Yılmadan devam eden Trump, Pazartesi günü, eyaletlerin yapay zekayı düzenleme yeteneğini sınırlayacak bir yürütme emri çıkarmayı planladığını duyurdu. Başkan, Truth Social'daki bir paylaşımında, yürütme emrinin yapay zekanın 'BEBEKLİK DÖNEMİNDE YOK EDİLMESİNİ' durdurmasını umduğunu söyledi.



