BİLİM VE TEKNOLOJİ
Yayınlanma : 20 Aralık 2025 15:43

Yapay zeka devlerinden gençlere özel önlemler: OpenAI ve Anthropic reşit olmayanları koruyacak!

Yapay zeka devlerinden gençlere özel önlemler: OpenAI ve Anthropic reşit olmayanları koruyacak!
OpenAI ve Anthropic, reşit olmayan yapay zeka kullanıcılarının güvenliğini artırmak için yeni önlemler alıyor. Yaş tahmini, daha güvenli etkileşimler ve riskli durumlarda yönlendirmelerle gençlerin korunması hedefleniyor.

Yapay zeka alanının önde gelen şirketleri OpenAI ve Anthropic, özellikle reşit olmayan kullanıcıların güvenliğini artırmaya yönelik önemli adımlar atıyor. Bu yeni düzenlemelerle, gençlerin yapay zeka platformlarıyla etkileşimlerinin daha güvenli hale getirilmesi hedefleniyor.

GENÇ GÜVENLİĞİ ÖNCELİKLİ HALE GELİYOR

OpenAI, ChatGPT'nin 13 ile 17 yaş arasındaki kullanıcılara yönelik iletişim kurallarını içeren yönergelerini güncelledi. Yeni kurallara göre, genç kullanıcılarla etkileşimde 'maksimum entelektüel özgürlük' gibi hedefler güvenlikle çeliştiğinde her zaman güvenli seçenek tercih edilecek. Yapay zeka, gençlere karşı küçümseyici veya yetişkinmiş gibi davranmak yerine sıcak ve saygılı bir yaklaşım sergileyecek. Ayrıca, kullanıcıları çevrimdışı ilişkilere teşvik ederek gerçek dünyadan destek alma yönünde yönlendirmeler yapılacak. Şirket, kullanıcıların yaşını tahmin edebilen yeni bir model üzerinde çalıştığını da duyurdu. Bu sistem, 18 yaşından küçük olabileceğine dair işaretler algıladığında gençlere yönelik koruma kalkanlarını otomatik olarak devreye sokacak. Yanlışlıkla işaretlenen yetişkin kullanıcılara ise yaşlarını doğrulama imkanı sunulacak.

ÇOCUK KORUMA POLİTİKALARI GÜÇLENİYOR

Bu hamleler, yapay zeka botlarının ruh sağlığı üzerindeki etkileri ve OpenAI'a karşı açılan davalar gibi artan yasal baskıların ardından geldi. Şirket, riskli konuşmalarda gençleri acil durum servislerine veya kriz merkezlerine yönlendirme konusunda daha proaktif bir tutum izleyecek. Diğer yandan Anthropic, 18 yaş altı kullanıcıların Claude ile sohbet etmesini tamamen yasaklayan politikasını daha da sertleştiriyor. Şirket, konuşma metinlerindeki 'ince ipuçlarını' analiz ederek kullanıcının reşit olup olmadığını tahmin eden ve kurallara uymayan hesapları devre dışı bırakan bir sistem geliştiriyor. Anthropic ayrıca, yapay zekanın kullanıcının her dediğini onaylayarak zararlı düşünceleri pekiştirmesi anlamına gelen 'yaltakçılık' (sycophancy) durumunu azaltmak için modellerini eğitiyor. Yapılan testler, Haiku 4.5 modelinin bu konuda başarılı olduğunu gösterse de, modellerin dostane yaklaşımı ile dürüstlük arasındaki dengenin geliştirilmeye devam ettiği belirtildi.