ClothOff adlı bir uygulama, iki yılı aşkın süredir genç kadınları çevrimiçi ortamda terörize ediyor ve durdurmak inanılmaz derecede zorlaşıyor. Uygulama iki büyük uygulama mağazasından kaldırıldı ve çoğu sosyal platformda yasaklandı, ancak web üzerinden ve bir Telegram botu aracılığıyla hala erişilebilir durumda. Ekim ayında, Yale Hukuk Fakültesi'ndeki bir klinik, uygulamayı tamamen kapatmak, sahiplerini tüm görüntüleri silmeye ve faaliyetlerini durdurmaya zorlayacak bir dava açtı. Ancak sadece davalıları bulmak bile bir meydan okuma haline geldi.
DAVALILARI BULMAK BİLE ZOR
Davanın ortak baş avukatı Profesör John Langford, "British Virgin Adaları'nda kurulmuş, ancak Belarus'ta bir kardeş tarafından yönetildiğine inanıyoruz. Hatta dünya çapında daha büyük bir ağın parçası bile olabilir" diye açıklıyor. Bu durum, Elon Musk'ın xAI'sı tarafından üretilen ve çoğu reşit olmayan kurbanı içeren son rızasız pornografi selinin ardından acı bir ders niteliğinde. Çocuk cinsel istismarı materyali, internet üzerindeki en yasal açıdan zehirli içeriktir; üretilmesi, iletilmesi veya depolanması yasa dışıdır ve her büyük bulut hizmetinde düzenli olarak taranır. Ancak yoğun yasal yasaklara rağmen, Langford'un davasının gösterdiği gibi, ClothOff gibi görüntü üreticileriyle başa çıkmak için hala çok az yol var. Bireysel kullanıcılar yargılanabilir, ancak ClothOff ve Grok gibi platformları denetlemek çok daha zordur, bu da mahkemede adalet arayan kurbanlara çok az seçenek bırakır.
REŞİT OLMAYAN BİR LİSE ÖĞRENCİSİNİN MÜCADELESİ
Klinik tarafından çevrimiçi olarak erişilebilen şikayet, endişe verici bir tablo çiziyor. Davacı, New Jersey'deki anonim bir lise öğrencisi. Sınıf arkadaşları, onun Instagram fotoğraflarını değiştirmek için ClothOff'u kullandı. Orijinal Instagram fotoğrafları çekildiğinde 14 yaşındaydı, bu da yapay zeka ile değiştirilmiş versiyonların yasal olarak çocuk istismarı görüntüsü olarak sınıflandırıldığı anlamına geliyor. Ancak değiştirilmiş görüntüler açıkça yasa dışı olmasına rağmen, yerel yetkililer şüphelilerin cihazlarından kanıt elde etmenin zorluğunu gerekçe göstererek davayı kovuşturmayı reddetti. Şikayette, "Ne okul ne de kolluk kuvvetleri, Jane Doe ve diğer kızların çocuk cinsel istismarı materyalinin ne kadar yaygın dağıtıldığını hiçbir zaman tespit edemedi" deniyor. Yine de dava yavaş ilerliyor. Şikayet Ekim ayında açıldı ve o zamandan bu yana geçen aylarda, Langford ve meslektaşları, işletmenin küresel doğası göz önüne alındığında zorlu bir görev olan davalılara tebligat yapma sürecindeydi. Tebligat yapıldıktan sonra klinik, mahkeme duruşması için baskı yapabilir ve nihayetinde bir karar alabilir, ancak bu arada yargı sistemi ClothOff'un kurbanlarına çok az teselli verdi.
GENEL AMAÇLI ARAÇLARIN SORUMLULUĞU
Grok davası düzeltilmesi daha basit bir sorun gibi görünebilir. Elon Musk'ın xAI'sı saklanmıyor ve bir iddiayı kazanabilecek avukatlar için sonunda bol miktarda para var. Ancak Grok genel amaçlı bir araçtır, bu da onu mahkemede sorumlu tutmayı çok daha zorlaştırır. Langford bana, "ClothOff özellikle bir deepfake porno görüntü ve video üreticisi olarak tasarlandı ve pazarlanıyor. Kullanıcıların her türlü şeyi sorabileceği genel bir sisteme dava açtığınızda, işler çok daha karmaşık hale geliyor" dedi. Bir dizi ABD yasası, en dikkat çekici şekilde Take It Down Act ile, deepfake pornografisini yasaklamış durumda. Ancak belirli kullanıcılar bu yasaları açıkça ihlal ederken, tüm platformu sorumlu tutmak çok daha zordur. Mevcut yasalar, açık bir zarar verme niyeti kanıtı gerektirir, bu da xAI'nın aracının rızasız porno üretmek için kullanılacağını bildiğine dair kanıt sunmak anlamına gelir. Bu kanıt olmadan, xAI'nın temel Birinci Değişiklik hakları önemli yasal koruma sağlayacaktır. Langford, "Birinci Değişiklik açısından, Çocuk Cinsel İstismarı materyalinin korunan bir ifade olmadığı oldukça açık. Dolayısıyla, bu tür içerik oluşturmak için bir sistem tasarladığınızda, Birinci Değişiklik tarafından korunanların dışında açıkça işlem yapıyorsunuz. Ancak kullanıcıların her türlü şeyi sorabileceği genel bir sistem olduğunuzda, durum o kadar net değil" diyor.



