Çin merkezli yapay zeka girişimi Moonshot AI, Alibaba ve HongShan gibi büyük yatırımcıların desteğiyle, metin, görüntü ve video anlayabilen yeni açık kaynak modeli Kimi K2.5'i tanıttı. 15 trilyon karma görsel ve metin tokenı üzerinde eğitilen model, doğası gereği multimodal yeteneklere sahip.
Kodlama ve Ajan Gruplarında Üstün Performans
Şirketten yapılan açıklamada, Kimi K2.5'in özellikle kodlama görevlerinde ve birden fazla yapay zeka ajanının birlikte çalıştığı 'ajan grupları' yönetiminde oldukça başarılı olduğu belirtildi. Yayınlanan kıyaslamalarda, modelin özel rakipleriyle performans olarak başa baş gittiği, hatta bazı görevlerde onları geride bıraktığı gözlemlendi. Örneğin, kodlama benchmark'ında Kimi K2.5, SWE-Bench Verified'da Gemini 3 Pro'yu geride bırakırken, SWE-Bench Multilingual'da GPT 5.2 ve Gemini 3 Pro'dan daha yüksek puan aldı. Video anlama alanında ise VideoMMMU benchmark'ında GPT 5.2 ve Claude Opus 4.5'i geride bırakarak videolar üzerinden akıl yürütme yeteneğini kanıtladı.
Kimi Code ile Geliştiricilere Yeni Ufuklar
Moonshot AI, geliştiricilerin bu kodlama yeteneklerinden faydalanabilmesi için Kimi Code adlı açık kaynaklı bir kodlama aracı da piyasaya sürdü. Bu araç, Anthropic'in Claude Code'u veya Google'ın Gemini CLI'ına rakip olmayı hedefliyor. Geliştiriciler, Kimi Code'u terminal üzerinden kullanabilir veya VSCode, Cursor ve Zed gibi geliştirme yazılımlarıyla entegre edebilirler. Şirket, Kimi Code ile geliştiricilerin girdi olarak görüntüler ve videolar kullanabileceğini de ekledi. Yapay zeka laboratuvarları için hızla popülerleşen ve gelir kaynağı haline gelen kodlama araçları arasında Kimi Code öne çıkıyor. Kimi Code'un kurucusu Yang Zhilin, eski Google ve Meta AI araştırmacısıdır. Şirket, son yatırım turlarında önemli miktarda fon topladı ve değerlemesini hızla artırıyor.



