Kriptolar:
34515
Bitcoin:
$103.434
% 1.11
BTC Dominasyonu:
%61.5
% 0.21
Piyasa Değeri:
$3.34 T
% 1.27
Korku & Açgözlülük:
73 / 100
Bitcoin:
$ 103.434
BTC Dominasyonu:
% 61.5
Piyasa Değeri:
$3.34 T

DeepSeek Metamatik Odaklı Yeni Yapay Zeka Modelini Tanıttı!

deepseek

Çin merkezli yapay zekâ şirketi DeepSeek, açık kaynak dünyasında önemli bir adım atarak yeni büyük dil modeli Prover V2’yi duyurdu. Özellikle matematiksel teorem doğrulama üzerine yoğunlaşan bu model, yapay zekâ ile bilimsel araştırmaları bir adım ileri taşımayı hedefliyor.

Prover V2 ile Matematiksel Kanıtlar Otomasyona Taşınıyor

Yeni model, 30 Nisan’da popüler açık kaynak platformu Hugging Face üzerinde paylaşıldı. MIT lisansı altında yayınlanan Prover V2, 671 milyar parametreyle dikkat çekiyor. Bu da onu, Ağustos 2024’te duyurulan Prover V1 ve V1.5’e göre çok daha kapsamlı bir model haline getiriyor.

İlk versiyona eşlik eden teknik doküman, modelin matematik yarışmalarındaki problemleri Lean 4 adlı mantık programlama diliyle biçimlendirdiğini ortaya koymuştu. Yeni sürüm de benzer şekilde matematik bilgisini sıkıştırarak kanıt üretme ve doğrulama yeteneklerini geliştiriyor. Bu sayede hem eğitim hem de akademik araştırmalar için ciddi bir yardımcıya dönüşebilir.

Önceki Modeller ve Prover V2’nin Konumu

Prover V1, 7 milyar parametreli DeepSeekMath üzerine inşa edilmişti ve yapay veriyle eğitilmişti. Bu tür veriler, insan eliyle üretilmiş içeriklerin yerine kullanılıyor ve modelin çok daha geniş alanlarda eğitilmesine olanak tanıyor. Ardından gelen V1.5 versiyonu, daha yüksek doğruluk ve optimize edilmiş eğitim süreciyle fark yaratmıştı.

Prover V2’nin mevcut yeniliklerine dair resmi bir teknik makale henüz paylaşılmasa da, bu versiyonun DeepSeek’in daha önce piyasaya sürdüğü R1 modeli üzerine kurulu olduğu düşünülüyor. R1, piyasaya çıktığında OpenAI‘nin en gelişmiş modelleriyle karşılaştırılacak seviyede performans göstermişti.

Açık Ağırlıkların Önemi ve Tartışmalar

Büyük dil modellerinin ağırlık dosyalarının halka açık şekilde paylaşılması, AI dünyasında süregelen bir tartışmanın merkezinde yer alıyor. Bu yaklaşım, kullanıcıların özel sunuculara bağımlı kalmadan yapay zekâyı kendi donanımlarında çalıştırabilmesini sağlıyor. Ancak bu aynı zamanda kötüye kullanım riskini de beraberinde getiriyor. DeepSeek’in daha önce R1 modelini açık şekilde yayınlaması, güvenlik endişelerini de beraberinde getirmişti.

Öte yandan, açık kaynak savunucuları bu gelişmeleri “kapalı kutu” yapay zekâlara karşı büyük bir demokratikleşme adımı olarak görüyor. Meta’nın LLaMA modellerinden sonra DeepSeek’in de bu çizgide devam etmesi, açık AI gelişiminde yeni bir sayfa açıyor.

Yapay Zekâ Daha Erişilebilir Hale Geliyor

Yüksek donanım gerektiren modeller artık herkesin erişebileceği hale geliyor. Bunun temelinde iki ana teknik yatıyor: Distillation (damıtma) ve quantization. Damıtma, büyük bir modelin daha küçük bir versiyonuna eğitilmesini ve böylece benzer performansla daha az kaynakla çalışmasını sağlıyor. Quantization ise modelin ağırlık hassasiyetini düşürerek hem depolama hem de hız açısından avantaj sunuyor.

Örneğin, Prover V2’nin 8-bit hassasiyeti bu yöntemin bir sonucu. DeepSeek, daha önce R1 modelini 70 milyardan 1.5 milyara kadar düşen parametrelerle yeniden eğitmişti. Bu sayede bazı modellerin mobil cihazlarda bile çalıştırılması mümkün hale gelmişti.


Son Dakika kripto para haberleri için hemen tıkla.

Konu ile ilgili yorumlarınızı bize yazabilirsiniz. Ayrıca, bu tarz bilgilendirici içeriklerin devamının gelmesini isterseniz, bizleri TelegramYoutube ve Twitter kanallarımızdan takip edebilirsiniz.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir