ABD merkezli yapay zeka şirketi Anthropic, Çin'deki bazı laboratuvarların kendi modellerinden veri damıtarak kopyalama yaptığını iddia etti.
SUÇLAMALARIN ARKA PLANI
Anthropic, DeepSeek, Moonshot AI ve MiniMax adlı Çinli şirketlerin, Claude adlı yapay zeka modellerine yönelik ‘endüstriyel ölçekli saldırı kampanyaları’ yürüttüğünü belirtti. Şirketin açıklamasına göre, söz konusu firmalar, yaklaşık 24 bin sahte hesap aracılığıyla Claude ile 16 milyondan fazla etkileşim gerçekleştirdi ve bu süreçte sistematik bir şekilde bilgi çekildi.
DAMITMA TEKNİĞİ NEDİR?
Model damıtma, büyük bir ‘öğretmen’ modelin öğrendiği bilgileri daha küçük bir ‘öğrenci’ modele aktarma sürecidir. Bu teknik, daha az kaynak tüketen ve mobil cihazlarda çalışabilen verimli sistemlerin geliştirilmesine olanak tanır. Ancak bu yöntem, mevcut bir yapay zeka modelinin dolaylı olarak kopyalanması için de kullanılabiliyor. Anthropic, bu tür veri toplama faaliyetlerini ‘hydra kümeleri’ olarak adlandırarak, hafifçe değiştirilmiş komutlarla model yanıtlarının toplandığını savundu.
ULUSAL GÜVENLİK RİSKLERİ
Anthropic, izinsiz damıtılmış modellerin yeterli güvenlik önlemlerine sahip olmayabileceğini ve bunun siber saldırılar, dezenformasyon kampanyaları ya da kitlesel gözetim gibi riskleri artırabileceğini vurguladı. Şirket, bu tür modellerin açık kaynak hâline gelmesi durumunda ulusal güvenlik risklerinin daha da büyüyebileceğini ifade etti. Ayrıca, Anthropic’in en büyük rakibi OpenAI, Çinli aktörlerin gelişmiş modellerden bilgi çıkarma yöntemlerini daha da sofistike hale getirdiğini öne sürdü. Şirket, kendilerine yönelik telif ihlali davalarıyla da karşı karşıya. Anthropic, Claude'u eğitirken telif hakkıyla korunan içerikleri izinsiz kullandığı iddialarıyla yargılanıyor. Üç ABD'li yazar, şirketin eserlerini izinsiz kullandığı gerekçesiyle dava açmıştı. Pentagon ile yaşanan gerilimler ve ABD-Çin rekabeti de bu süreçte dikkat çekiyor.



