Yılın sonuna yaklaşırken AI tartışmaları hararetli geçiyor. Kamuoyu Google tarafındaki gelişmeleri anlamaya çalışırken Deepseek tarafından gelen haberleri değerlendirmeyi büyük ölçüde ihmal ediyor ve süreçleri anlamak zorlaşıyor. Normalde daha önce çokça bahsettiğim TPU için bir şey yazma niyetim yoktu ancak yaşanan bilgi kaosu, bir şeyler yazmaya mecbur etti. Bugün çıkan haberlerde Semi Analysis şirketinin herkese açık yayınladığı yazıda TPU’ların Nvidia’ya rakip olabileceğini açıklaması (aslında yazının tamamı öyle değildi fazla eleştirildi ve yanlış anlaşıldı) ancak kurumsal hesaplarda TPU’nun yakın vadede GPU’ya rakip olamayacağını belirtmesi, yine ortalığı karıştırdı.
Öcelikle TPU ile başlayalım. TPU Nvidia’nın bir rakibi olabilecek konumda değil. Bu konuda yapılan analizlerin hepsinin argümanlarını zamanla yumuşattığını ve vade uzatmak zorunda kalacaklarını göreceksiniz. Yapılan analizlerde kullanılan grafikler ve maliyet hesapları ise hatalı çünkü yalnızca maliyet tarafına odaklanıyor, elimizde henüz bu çiplerin çalıştığında ne kadar performans vereceğine dair hiçbir veri yok, 2026 yılında veriler geldikçe elbette bakıyor olacağız. Performans tarafında bu kadar kısıt varken baktığınız rakamlar bisiklet ile Formula 1 aracını kıyaslamaya benziyor, sonuçta bisiklet daha ucuz. Aynı hata AMD’de de yapılmıştı. Bahsi geçtiği gibi TPU’lar %30 civarında daha karlı olsa bile kullanıcılar kolayca TPU’ya geçmeyeceklerdir çünkü switching cost tahmin edilenden çok daha yüksek, sonuçta bu coşku zaten anlamlı değil.
İkinci bir konu Pytorch gibi open source alanlara Google’ın giriş yapmış olması. Pytorch tarafı benim yaklaşık 1 buçuk sene önce AMD için olması gerektiğini düşündüğüm stratejik adımdı ve Meta ile yakınlaşabileceklerini yazmıştım, öyle de oldu ve Meta ile şirket zaman içerisinde yakınlaştı. Ancak buradaki ana amaç Meta’nın ekosistem alanında kendi ürünleri olan Pytorch’u öne çıkarma ve değer zincirinde bir yer edinme çabası idi. Günün sonunda Nvidia bu alanda farkı açarak devam ediyor, Meta’nın hayallerini ise Deepseek gerçekleştirecek gibi görünüyor. Kütüphaneleri open source tarafına açmak tek başına yeterli bir aksiyon değil, öncelikle NVFP4 gibi daha önce Deepseek tarafında bahsettiğim daha düşük maliyet ile model çalıştırılan konseptleri desteklemesi ve buna uyumlu olabilmesi gerekiyor. Yapısı gereği TPU’ların bunu yapabilmesi çok kolay olmayacaktır. Google’ın bunları yapabilmesi için önce Cloud ile TPU desk’ini birleştirmesi, sonrasında ise yazılım ekibini buna entegre edecek şekilde yeniden tasarlaması gerekiyor. Bunun ana amaç olduğu kanaatinde değilim.
Peki Google’ın ana amacı ne? TPU çiplerin arzı Gemini modellerinin kullanımı artmaya devam ettikçe zaten yetersiz kalacaktır ve bugüne kadar Gemini modellerinin rekabetçi kalabilmesinin tek nedeni TPU çiplere sahip olmalarıydı. İşlem gücü sorunu yaşamamaları hem Gemini modellerinin daha ucuza çıkmasına neden oldu, hem context window gibi uzun görevleri yerine getirme fırsatı verdi, hem de mühendis kaybetmemelerinin ana gerekçesi oldu. Meta’nın da fazla kapasitesini satma ihtimalini dillendirmesi bu yüzden aslında bir IRR sorununa işaret ediyordu. Şimdi ise TPU’nun bir faydası daha görüldü; pre-training
Pre-training dediğimiz alan aslında modellerin öğrenmeyi öğrendiği aşama, sıfırdan parametrelerin yazıldığı bir süreç denebilir. Burada bir güncelleme veya büyütme yapmak oldukça maliyetli ve çok fazla işlem gücü istiyor. Bu nedenle bir süredir üzerinde çalışma yapılan alan hep post-training olmuştu, yani model size bir konuda cevaplarını sunuyor, siz de bu cevapları insan eli ile iyiden kötüye sıralıyorsunuz ve model’in ödül mekanizması güncelleniyor. Bu bahsettiğim yöntem RLHF yani Reinforcement Learning with Human Feedback yöntemi. Bizim bir süredir gördüğümüz kademe kademe artan model becerileri burada daha fazla çip kullanımı ve daha fazla post-training yani ince ayar üzerinden gidiyordu. Gemini modelinde ise pre-training tarafında bir gelişme gördük ve model rakiplerine göre 2-3 kat kadar büyük bir model haline geldi. Yani Google işlem gücü tarafında gücünü kullanarak burada daha güçlü bir model yaratabilmiş gibi görünüyor, mantık ve kodlama tarafında çok büyük ilerlemeler yok ancak görüntü ve ses becerilerinde gerçekten muazzam bir ilerleme var, bu nedenle bir süredir birleşeceğini düşündüğüm Youtube çok daha özel bir platform haline gelecektir.
Sonuçta Google için en önemli konu TPU’ların kullanımındaki sermaye getirisi olacaktır. Bugün için Gemini hazır rekabetçilik kazanıyorken dışarıya satma süreçlerinde Nvidia’nın altında konumlanmak yerine Gemini desteklemeleri onlar için daha mantıklı olacaktır. Dışarıya satım sürecinde ne kadar agresif olacakları arz tarafındaki gelişmelere bağlı olacak. Google, bu alandaki miktarsal avantajını kaybetmemeli. Google portföyündeki Search, Gemini ve hatta Google Cloud tek başına bir şey ifade etmiyor, TPU, Youtube ve Waymo ise gerçekten çok kıymetli varlıklar. Hepsinin kilidi ise TPU, diğer devlerin de bu alana gireceğini varsayarsak %25 civarında dengeleneceğini tahmin ettiğim ASICS payına çalışan Broadcom, Marvell gibi şirketlere yatırım yapmak bu zamana kadar çok daha karlı oldu ve çarpanları Google’dan çok daha farklı bir resme işaret etti. Gelişmelere tamamen hardware gözü ile bakmaya devam ediyorum ve oradaki değer zincirinin Google’dan yana döndüğü haberleri hariç takip ettiğim bir gündem yok.
Peki TPU’lar bu kadar gündemdeyken diğer Cloud şirketleri yan gelip yatıyor mu? Elbette hayır. Cloud devlerinin hepsi, özellikle Amazon bu alanda bir esneklik kazanmaya çalışıyorlar ve Trainium AWS’in ana gündem maddesi. Daha önce detaylı anlattığım bu konu, tüm Cloud şirketleri için çok kıymetli olacak ve hepsi kendi ürünlerini muhakkak çıkaracak. Piyasa bir noktada “Trainium da var aslında” farkındalığına gelecektir. Artık biraz kabak tadı veren Nvidia’ya rakip mi geliyor konusu seneye Rubin ile tamamen rafa kalkacaktır ve ASICS çiplerin yeri daha iyi anlaşılacaktır. Eğer Paas yazılımlarında Cloud devleri bu yavaş seyrini sürdürürlerse ASICS çiplerin de orta uzun vadede pabucu dama atılacak, onu da başka bir yazıda tartışmak gerekiyor. Çip ekosistemi ileride bugünkünden çok daha renkli olacak ve özellikle inference tarafında bugün adı bile geçmeyen bir çok oyuncuyu göreceğiz.
Tam olarak burada Deepseek’ten bahsetmek gerekiyor. Deepseek’in çıkardığı her model gerçekten büyüleyici ve çok öğretici. Google, Open AI, Anthropic gibi şirketler sürekli işlem gücünü boca etme üzerine kurulu modellerine devam ederken Deepseek yaratıcılık anlamında küçük AI lab’ler ile yarışabilecek ve onlara öncülük edebilecek seviyede yer alıyor. Çin’li dev, kaynak yetersizliği nedeni ile pre-training süreçlerinde bir geliştirme yapmadı ancak eski modeline yaptığı post-training geliştirmeleri ile tüm ABD’li devleri yakalamayı başardı. Bazı önemli gelişmeler mevcut;
- Hafıza kapasitesinin kullanımında daha sıkıştırılmış algoritmalar
- Modellerin mantık süreçlerinde tüm birimler ile etkileşimde olmak yerine yalnızca yakın çevresindeki en makul birimler ile konuşması (önceden de vardı ancak geliştirilmiş)
- Modellerin yaptıklarının mantık olarak denetlenmesi için başka bir modelden bağımsız yardım alması ve bu şekilde iç süreçlerinde düşük maliyetli ama kesinlikten taviz veren adımların eksilerinin giderilmesi
- Yukarıda bahsettiğim RLHF yerine tamamen mantık süreçlerinin matematiksel olarak denetlenmesi ve bunu yaparken insan kullanımına daha az ihtiyaç duyulması (kodlama ve matematik, mantık süreçleri için performansı çok arttırıyor tahmin edilebileceği gibi)
Bu aşamaların neredeyse hepsi daha önceden geliştirilmiş aşamalardı ancak tüm bu yöntemlerde farklı nüanslar ile yenilikler yaratmış durumda Deepseek. Artık batıda çıkmış algoritmik gelişmelerin çok başarılı bir uygulamasını yapmak yerine gerçekten daha verimli versiyonlarını üreten bir şirket haline gelmiş durumdalar. Burada hardware geliştirecek kaynağı bulabilirlerse batı modellerinin hepsini silip süpürebilecek potansiyelde olduklarını düşünüyorum. Gerçi sadece ben düşünmüyorum, yeni modelin makalesinde Conclusion kısmında kendileri lider modeller ile aralarındaki farkı açıklıyorlar;
“Despite these achievements, we acknowledge certain limiatations when compared to frontier closed source models such as Gemini-3.0-Pro. First, due to fewer total training FLOP’s, the breadth of world knowledge in Deepseek-V3.2 still lags behind that of leading proprietary models. We plan to adress this knowledge gap in future iterations by scaling up the pre-training compute”
Dikkat çekici bir nokta ise şu, özellikle insansız ve matematiğe dayalı öğrenme süreçlerinde kullanılan çift model ise doğrulama, daha fazla işlem gücü isteyen bir metot. Şirket zannedildiği gibi sadece işlem gücüne erişimleri düşük diye değil, komple bir sistem olarak en verimli yapıyı kurmaya odaklanan yeni bir savaş alanı kazmış durumda. Google’ın yeni modelindeki yükseliş çok önemli ve pre-training tarafını geliştirdikleri için sonraki modellerinde de iyi sonuçlar alacaklardır ancak Deepseek’in teknik üstünlüğü her geçen gün kendisini daha net gösteriyor.
Bu yazının ana fikri ise şu; ne fazla kapasite korkularını ne GPU’ların amortisman yıllarını ne de Nvidia’yı tahtından biri indirecek mi konularında yazılan çizilenlere odaklanmak şu an için çok anlamlı değil. Çin, enerji alanındaki gücünü ve modellerindeki teknik altyapıyı öyle bir seviyede kullanabiliyor ki Afrika kıtasındaki rekabet için bile ABD ile yarışabilecek durumda. Seneye göreceğimiz yükseliş ve sektöre gelecek olan yardımlar tüm ekosistemi besleyecek. Open source alanında ABD artık acilen adımlar atmak zorunda yoksa start up ekosistemini şu anda kaybediyor ve harcanana milyarlarca USD’lik arge, tek kuruş harcamayan Çin’den başkasına yaramıyor. Robotik yardımlarını Politico ilk kez dillendirdi, sıra artık burada.
Utku Oktay Acundeğer















