BİLİM VE TEKNOLOJİ
Yayınlanma : 18 Şubat 2026 16:12

Hindistan'ın yapay zeka laboratuvarı Sarvam, açık kaynak yapay zekaya büyük bir bahis oynuyor

Hindistan'ın yapay zeka laboratuvarı Sarvam, açık kaynak yapay zekaya büyük bir bahis oynuyor
Hindistan'ın Sarvam yapay zeka laboratuvarı, yerel dillere odaklanan ve hesaplama maliyetlerini düşüren yeni açık kaynak modellerini tanıttı, ABD ve Çinli devlere rakip olmayı hedefliyor.

Hindistan merkezli yapay zeka laboratuvarı Sarvam, Salı günü yeni nesil büyük dil modellerini tanıtarak, daha küçük ve verimli açık kaynak yapay zeka modellerinin, çok daha büyük ABD ve Çinli rakiplerinin sunduğu pahalı sistemlerden pazar payı kapabileceğine olan inancını ortaya koydu. Yeni Delhi'de düzenlenen Hindistan Yapay Zeka Etki Zirvesi'nde duyurulan lansman, Yeni Delhi'nin yabancı yapay zeka platformlarına bağımlılığı azaltma ve modelleri yerel dillere ve kullanım senaryolarına uyarlama hamlesiyle uyumlu.

YENİ MODELLER VE TEKNİK ÖZELLİKLER

Sarvam, yeni serinin 30 milyar ve 105 milyar parametreli modelleri, bir metinden konuşmaya modeli, bir konuşmadan metne modeli ve belgeleri ayrıştırmak için bir görüntü modelini içerdiğini açıkladı. Bunlar, şirketin Ekim 2024'te yayınladığı 2 milyar parametreli Sarvam 1 modelinden belirgin bir yükseltme anlamına geliyor. 30 milyar ve 105 milyar parametreli modeller, toplam parametrelerinin yalnızca bir kısmını aynı anda etkinleştiren ve böylece hesaplama maliyetlerini önemli ölçüde düşüren bir 'uzman karışımı' mimarisi kullanıyor. 30B modeli, gerçek zamanlı konuşma kullanımına yönelik 32.000 token'lık bir bağlam penceresini desteklerken, daha büyük model daha karmaşık, çok adımlı akıl yürütme görevleri için 128.000 token'lık bir pencere sunuyor.

YEREL ODAK VE AÇIK KAYNAK STRATEJİSİ

Sarvam, yeni yapay zeka modellerinin mevcut açık kaynak sistemler üzerinde ince ayar yapılmak yerine sıfırdan eğitildiğini belirtti. 30B modeli yaklaşık 16 trilyon token metin üzerinde ön eğitimden geçirilirken, 105B modeli birden fazla Hint dilini kapsayan trilyonlarca token üzerinde eğitildi. Modeller, Hint dillerinde ses tabanlı asistanlar ve sohbet sistemleri de dahil olmak üzere gerçek zamanlı uygulamaları desteklemek üzere tasarlandı. Şirket, modellerin Hindistan hükümeti destekli HindistanYapayZeka Misyonu kapsamında sağlanan hesaplama kaynakları, veri merkezi operatörü Yotta'dan altyapı desteği ve Nvidia'dan teknik destek kullanılarak eğitildiğini açıkladı.

ÖLÇEKLENDİRME VE GELECEK PLANLARI

Sarvam yöneticileri, şirketin modellerini ölçeklendirmede ham boyuttan ziyade gerçek dünya uygulamalarına odaklanan ölçülü bir yaklaşım planladığını söyledi. Kurucu ortağı Pratyush Kumar lansmanda, 'Ölçeklendirmeyi nasıl yaptığımız konusunda dikkatli olmak istiyoruz. Ölçeklendirmeyi düşüncesizce yapmak istemiyoruz. Gerçekten ölçekte önemli olan görevleri anlamak ve onlar için inşa etmek istiyoruz' dedi. Sarvam, 30B ve 105B modellerini açık kaynak yapmayı planladığını, ancak eğitim verilerinin veya tam eğitim kodunun da halka açılıp açılmayacağını belirtmedi. Şirket ayrıca, Sarvam for Work adlı bir ürün altında kodlama odaklı modeller ve kurumsal araçlar ile Samvaad adlı bir konuşma yapay zeka ajan platformu dahil olmak üzere özel yapay zeka sistemleri oluşturma planlarını ana hatlarıyla açıkladı. 2023'te kurulan Sarvam, 50 milyon doların üzerinde fon topladı ve yatırımcıları arasında Lightspeed Venture Partners, Khosla Ventures ve Peak XV Partners (eski adıyla Sequoia Capital India) bulunuyor.