Microsoft'un yapay zeka ürünü Copilot'un kullanım koşulları, şirketin kendi beyanlarına göre yalnızca eğlence amaçlı olduğunu ortaya koydu. Bu durum, yapay zekanın güvenilirliği konusundaki tartışmaları yeniden alevlendirdi.
Kullanım Koşulları Güncellendi
Şirketin 24 Ekim 2025 tarihinde güncellendiği belirtilen kullanım koşullarında, "Copilot yalnızca eğlence amaçlıdır. Hatalar yapabilir ve amaçlandığı gibi çalışmayabilir. Önemli tavsiyeler için Copilot'a güvenmeyin. Copilot'u kendi riskinize kullanın." ifadeleri yer alıyor. Bu uyarı, özellikle kurumsal müşterileri hedefleyen Copilot'un ticari kullanımları konusunda soru işaretleri doğuruyor.
Şirketten Açıklama Geldi
Bir Microsoft sözcüsü, bu ifadelerin "eski bir dil" olduğunu ve Copilot'un günümüzdeki kullanım şeklini yansıtmadığını belirterek, bir sonraki güncellemeyle bu dilin değiştirileceğini açıkladı. Bu tür muafiyet beyanlarının yalnızca Microsoft'a özgü olmadığı, OpenAI ve xAI gibi diğer yapay zeka şirketlerinin de benzer uyarılarla kullanıcıları kendi çıktılarının "doğruluğuna" veya "tek gerçek kaynağı" olduğuna güvenmemeleri konusunda uyardığı belirtiliyor.



