Yapay zekâda taht kavgaları ve açık kaynak devrimi
Hadi biraz dedikodu yapalım. Ama bildiğimiz magazin değil, yapay zekâ dünyasının en büyük kapışmalarından biri hakkında konuşacağız: DeepSeek ve ChatGPT.
Son zamanlarda bu konuda sosyal medyada bir sürü söylenti dönüyor. "DeepSeek, OpenAI'yi dize getirdi", "ChatGPT tahtından oldu", "Nvidia tek günde servet kaybetti" falan filan
Peki, işin aslı ne DeepSeek gerçekten bir devrimin fitilini mi ateşledi
Gelin, yapay zekâ savaşını birlikte masaya yatıralım.
DeepSeek Kimdir, Necidir
Önce kahramanımızı tanıyalım. DeepSeek, 2023'te Çin'de kurulan bir yapay zekâ şirketi.
Yani daha dünkü çocuk. Ama 20 Ocak 2025'te çıkardıkları R1 modeli, tam anlamıyla kartları yeniden dağıttı.
Niye mi Çünkü bu model, ChatGPT'nin en gelişmiş versiyonlarına kafa tutacak kadar iyi, ama maliyeti ChatGPT'yi geliştirmek için harcanan milyarlarca doların yanında çerez parası gibi kalıyor.
Özetle, DeepSeek Davut, OpenAI ise Câlut. Küçük ama akıllı olan, dev gibi rakibini bir sapan taşıyla yere serdi.
Olayın en bomba tarafı DeepSeek, modelini açık kaynak yaptı. Yani istiyorsan bilgisayarına indirip, kodlarına bakabiliyor, hatta değiştirip kendine göre uyarlayabiliyorsun.
Bildiğin, "Alın size, ben yaptım, siz de kurcalayın" dediler. OpenAI'nin en büyük kozu olan kapalı kutu sistemi, anında değer kaybetti.
Peki, DeepSeek Nasıl Bu Kadar İyi Olabiliyor
ChatGPT gibi yapay zekâlar üç aşamalı bir eğitimden geçiyorlar:
Ön eğitim (Pre-training): Yapay zekâ, deli gibi veri okuyarak kelimeler arasındaki bağlantıları öğreniyor.
Gözetimli hassas ayarlama (Supervised fine-tuning): İnsanlar ona doğru cevapları öğretiyor.
Pekiştirmeli öğrenme (Reinforcement learning): Yapay zekâ, en iyi cevabı nasıl seçeceğini öğreniyor.
OpenAI, ChatGPT'yi bu üç aşamadan geçirmek için milyarlarca dolar harcadı.
Ama DeepSeek bir şey fark etti: İkinci ve üçüncü aşamaları neredeyse tamamen atlayarak da ChatGPT kadar iyi bir yapay zekâ eğitebiliriz. Ve bunu başardılar.
Nasıl mı Mixture of Experts (Uzman Karışımı) denilen bir yöntemle.
DeepSeek'in kullandığı V3 modeli, beynini küçük bölümlere ayırıyor. Her komutta tüm beyin çalışmıyor, sadece ilgili uzmanlar devreye giriyor. Yani kaynakları çok daha verimli kullanıyorlar.
Sonuç Daha küçük ama aynı derecede güçlü bir model.
Ve DeepSeek, bunu yapay zekânın kendi kendini eğitmesini sağlayan GRPO (Göreli Grup Poliçe Optimizasyonu) adlı bir teknikle yaptı. Şu şekilde düşünebilirsiniz:
Eski yapay zekâlar, bisiklet sürmeyi öğrenirken insanların onlara yol gösterdiği bir çocuk gibiydi.
DeepSeek R1 ise düşe kalka kendi kendine öğrenen bir çocuk. Başta biraz sendeledi, ama kısa sürede ustalaştı.
Sonunda, çok daha az veri ve daha az para harcayarak ChatGPT seviyesinde bir model geliştirmeyi başardılar.
Amerika'da Panik, Nvidia'da Deprem
DeepSeek'in açık kaynak R1 modeli piyasaya sürülür sürülmez, Amerikan yapay zekâ sektörü panik moduna girdi.
Çünkü OpenAI'nin en büyük avantajı, gizli formülleri ve pahalı eğitim süreçleriydi. DeepSeek, "Bakın, o kadar para harcamadan da bunu yapabiliyoruz" dedi ve kodlarını dünyayla paylaştı.