Anthropic, Çarşamba günü Claude'ın 'Anayasası'nın güncellenmiş bir versiyonunu yayınladı. Bu yaşayan belge, Claude'ın hangi bağlamda çalıştığını ve nasıl bir varlık olmasını istediklerini 'bütünsel' bir şekilde açıklıyor. Belge, Anthropic CEO'su Dario Amodei'nin Davos'taki Dünya Ekonomik Forumu'na katılımıyla eş zamanlı olarak yayınlandı. Yıllardır Anthropic, 'Anayasal Yapay Zeka' adını verdiği sistemle rakiplerinden ayrışmaya çalışıyor. Bu sistemde sohbet robotu Claude, insan geri bildirimi yerine belirli bir etik ilkeler seti kullanılarak eğitiliyor. Anthropic bu ilkeleri ilk kez 2023'te yayınlamıştı.
GÜVENLİK VE ETİKTE YENİ NÜANSLAR
Güncellenmiş versiyon, çoğu ilkeyi korurken, etik ve kullanıcı güvenliği gibi konularda daha fazla nüans ve detay ekliyor. 80 sayfalık belge, sohbet robotunun 'temel değerlerini' temsil eden dört ayrı bölümden oluşuyor. Bu değerler şunlar: 'Geniş çapta güvenli olmak', 'Geniş çapta etik olmak', Anthropic'ın yönergelerine uyumlu olmak ve 'gerçekten yardımcı olmak'. Belgenin her bölümü, bu ilkelerin ne anlama geldiğini ve teoride Claude'ın davranışını nasıl etkilediğini açıklıyor. Güvenlik bölümünde, chatbotun diğer sohbet robotlarını rahatsız eden türden sorunlardan kaçınacak şekilde tasarlandığı ve zihinsel sağlık sorunlarına dair kanıtlar ortaya çıktığında kullanıcıyı uygun hizmetlere yönlendireceği belirtiliyor.
GERÇEK DÜNYA ETİĞİ VE YARDIMSEVERLİK
Etik bölüm, Claude Anayasası'nın bir diğer önemli kısmı. Belge, 'Claude'ın etik teorileriyle değil, belirli bir bağlamda nasıl etik olacağını bilmesiyle, yani etik pratiğiyle daha çok ilgilendiklerini' ifade ediyor. Başka bir deyişle Anthropic, Claude'ın 'gerçek dünya etik durumlarını' beceriyle yönetebilmesini istiyor. Claude ayrıca, biyolojik silah geliştirme gibi belirli türdeki konuşmaları yasaklayan kısıtlamalara sahip. Yardımseverlik taahhüdü ise, Claude'ın programlamasının kullanıcılara nasıl yardımcı olacak şekilde tasarlandığının geniş bir taslağını ortaya koyuyor. Chatbot, bilgi sunarken kullanıcının 'acil arzuları' ve 'refahı' gibi çeşitli ilkeleri göz önünde bulunduracak şekilde programlanmış.
BİLİNÇ SORUSUYLA SONA ERİYOR
Anthropic'ın Anayasası, oldukça dramatik bir notla sona eriyor. Belgenin yazarları, şirketin sohbet robotunun gerçekten bilinçli olup olmadığını sorgulayan büyük bir hamle yapıyor. 'Claude'ın ahlaki statüsü derin bir belirsizlik içinde' ifadesini kullanan belge, 'AI modellerinin ahlaki statüsünün dikkate değer ciddi bir soru olduğuna inanıyoruz. Bu görüş bize özgü değil: zihin teorisi üzerine çalışan en seçkin filozoflardan bazıları bu soruyu çok ciddiye alıyor' diye ekliyor.



