2026 yılının henüz ilk gününde, Çin-ABD AI yarışı gündemdeki yerini neden hak ettiğini gösterdi.
Paylaşılan “mHC: Manifold-Cosntrained Hyper-Connections” adlı makalede Deepseek kurucusunun da adı var ve model transformer mimarilerinde önemli bir sorunun çözüldüğünü gösteriyor. Makale, Transformer mimarilerinde bir bilginin işlenmesi için aynı anda daha fazla verinin aynı anda modelin mantık süreçlerine eklenebilmesi olarak özetlenebilir. Modellerin öğrenme süreçlerinde ve çalışma süreçlerinde, yeni veriler, yeni tanınmış bir kelime veya bir görsel tek tek özellikleri ile modele taşınıyor. Bunu bir otobana benzetebiliriz, eski mimaride bu otobanın üzerinden tek tek bilgi taşınması ve neticesinde bir depoya konması durumu mevcuttu. Bu otobanın şerit sayısının arttırılması tarafında soru işaretleri vardı, sebebi ise daha çok şerit konur ise veri seti koyma tarafında bir karmaşa yaşanabileceği ve yaşanacak karmaşaydı. Deepseek ise bu yolu 4 şeritli yaptığımızda aynı ürün hakkında daha farklı özelliklerin de aynı anda otobandan geçebileceğini, bir karmaşa yaşanmaması adına da yola şeritler çekmenin, verilerin buluştuğu deponun ise başarılı bir planlama ile hata payını arttırmadan çalışabileceğini gösterdi. Bu çok teknik meseleyi anlayabildiğim kadarıyla bu şekilde basitleştirebiliriz. Bunun neticesinde ise modellerin aslında yoldaki şerit sayısının arttırılması ve deponun kontrollü genişlemesi sayesinde aynı anda daha fazla özelliği aynı anda ayırt edebilir hale gelmesi, transformer mimarisinin daha iyi bir teknik ile eğitilmesi değil, tamamen mimariye getirilmiş bir geliştirme. Bu konu, bugünlerde Google’ın satın almayı düşündüğüne dair haberler de okuduğumuz Thinking Machines start-up’ı tarafından da daha önce düşünülmüş bir konu. LLM modellerinin ve mimarilerinin aslında aşılamaz ve boyut arttırıldığında sorun yaşanacağı düşünülen bu darboğazı aşılıyor gibi görünüyor. Önceki teknik atılımlara baktığımızda zaten Deepseek’in model yazılım geliştirmeleri (algoritmik geliştirmeler) tarafında batılı rakiplerini takip etmekten çıkıp yenilik yaratma aşamasına geçtiğini konuşmuştuk, burada ise bu bahsettiğimiz tekniğin çok farklı bir tarafı mevcut.
Önceden uygulanmış olan öğrenme metotları, diğer AI şirketleri tarafından da uygulanabilir olan geliştirmelerdi, fakat burada konuştuğumuz mHC değişimi pek öyle değil. Bu seviyede bir mimari geliştirmenin, mimariye dair ve GPU ile kuracağı ilişkiye dair çok daha ciddi bir güncelleme gerektirdiği, yani model yaratıcılarının bu avantaja sahip olabilmeleri için Kernel yazmak gibi süreçlerin hepsini yeniden kendilerine uyarlamaları gerektiği söyleniyor. Yani bu bir sistem seviyesinde yenilik istiyor. Önceki yazılarda Deepseek’in FP4 güncellemeleri ile birlikte nasıl software-driven bir yaklaşım ile hardware tarafına tesir etmek istediğinden bahsetmiştik. Bugün de yapılan aslında aynı stratejinin devamı konumunda, artık Deepseek birçok alanda kendi standardı ile model geliştirme süreçlerine geçme niyetinde. Bunu Nvidia için negatif olarak okumak pek doğru olmaz çünkü Kernel seviyesinde geliştirmeler yapmak istiyorsanız Nvidia’nın Cuda platformu aslında çok daha fazla önem kazanıyor ve bu geliştirmeleri yapmanıza imkan sağlıyor. Yani artık bir esneklik kazanılmak zorunda ve bu esnekliği Cuda dışında verebilecek herhangi bir ekosistem mevcut değil. Önceden Open AI geliştirmeler yapardı ve Deepseek’in bunu nasıl daha verimli yaptığını konuşurduk, şimdi ise Deepseek’in yaptığı bir geliştirmeyi batı nasıl yorumlayacak bunun peşindeyiz. Birazdan bu konuya döneceğim.
İkinci bir gelişme ise Iquest Coder adlı bir modelin tanıtılması ve modelin 40 milyar parametre ölçeğine rağmen 1 trilyon civarında parametre kullanan Antrhopic modellerini benchmark olarak geride bırakması. Iquest adlı bir fon yönetim şirketi tarafından çıkarılan bu model, mimari olarak looped transformer adı verilen bir mimariyi merkezine koyuyor. Bu mimari, model bir çıktı ürettikte sonra bu çıktıyı tekrar transformer’a bir girdi olarak veriyor ve doğruluğunu test ederek keskinleştiriyor. Yani bir adım için daha fazla düşünmüş oluyor. Batı dünyasındaki AI şirketleri bundan haberdarlar ve kullanıyorlar ancak farklı bir teknik altyapı ile gerçekleştiriyorlar. Şirketin kodlama alanında gösterdiği başarı gerçekten enteresan.
Buradan aslında iki hikayenin bizlere ne anlattığını konuşalım. Ubiquant şirketi, bir quant temelli hedge fund şirketi, Deepseek de öyleydi. Çin’de onlarca şirket bu konuda çalışmalar yapıyorlar ve çok rekabetçi modeller çıkarıyorlar. Kimi, Qwen, Deepseek, Iquest, Baidu modelleri derken çok sayıda şirket mevcut.
Batı’ya baktığımızda ise 2-3 şirketin model yarışını sürdürdüğünü görüyoruz ve bunların da aralarında spesifik uzmanlıklar mevcut. 20.yy’de rekabete bakış anlamında Avusturya okulu tarafından ciddi anlamda farklı çalışmalar hazırlandı ve tartışıldı. Schumpeter ve Hayek’in büyük şirketler düşünüldüğü kadar kötü değildir bakışı, ABD’de bir model olarak teknoloji tarafında kendisine yer buldu. Ana argüman, Adam Smith’lerden gelen klasik ekolün statik bir denge varsayması ve bu statik dengenin dinamik değişkenlik gösteren endüstrilerde geçerli olmaması üzerineydi, yani sanayi tarafında metotları ve süreçleri oturmuş bir sektörden bahsediyorsak Pazar payı büyük olan şirketler rahatsız edici olabilir ancak bir yazılım sektöründen bahsediyorsak ve Pazar payı büyük olan şirket sürekli olarak inovasyon geliştiriyor ise ona dokunmamak gerekir. Burada ortaya çıkan yüksek kar marjları ise Hayek ve Schumpeter’e göre aslında çıkacak olan yeni rekabetin avıdır, o kar marjı ne kadar yüksekse av o kadar cazip olur. Yaratıcı yıkım teorisi de buradan çıkar, büyük şirketler inovasyon yapmaz iseler av olurlar ve yıkılırlar, yerine yenileri gelir. Hayek de benzer şekilde düşünür ve onun için rekabet bir keşif metodudur. Firmalar birbirleri ile rekabet ederler ve yerlerini korumak için sürekli olarak keşifler yapmak zorundadırlar, eğer sürekli olarak küçük şirketler de yapsın diyerek onların pastalarını bölmeye çalışırsak keşif süreci zorlaşır, bilgi eşitliği ve mükemmel rekabet, zaten gerçek hayatta mümkün olan bir kavram değildir. Bu bakış açısı 20.yy’den beri ABD’nin rekabet anlayışını oluşturdu ve anti-trust davalarında büyük şirketlere yıkıcı cezalar gelmemesinin nedeni oldu. FTC’nin önceki döneminde bu anlayış kırılmaya çalışıldı ancak bu Google davası ile gördüğümüz üzere başarılamadı.
Yaşadığımız bu enteresan dünyada kavramlar da birbirilerinin altını oyuyorlar diye düşünüyorum. Hayek’in rekabet konusunda yazmış olduğu makaleleri okuduğumuzda enteresan bir detay görürüz, mükemmel rekabet arayışının aslında “otokratik” bir arayış olduğundan bahseder. Yani bir şirketin büyüyüp büyük bir pastayı yeme motivasyonunu elinden almanız, keşif sürecini askıya alacağı gibi devlet elinin bir üst akıl gibi sektörü yönetmeye çalıştığını da gösterir. Ben bugün Çin’ baktığımda, klasik rekabet tarafına ABD’den çok daha yakın olduğunu düşünüyorum ve Hayek’in eleştirilerinin de yerinde olduğu kanaatindeyim. Çin’de bir şirketin belli bir boyutun üzerine çıkmasına izin verilmediğini özellikle Alibaba meselelerinde görmüştük, şimdi de bunun Deepseek için yapıldığını görüyoruz. ABD’de Stargate gibi projeler eşliğinde Open AI desteklenirken Çin’de Deepseek desteği var mı yok mu soru işaretli bir konu ve başka oyuncuların çıkması için teşvik edildiğini görebiliyoruz. Peki bu iki modelin statik ve dinamik denge anlayışı AI tarafında nasıl bir tabloya işaret ediyor?
Statik dengelerde inovasyon dışarıdan gelen bir şok olarak görülür ve açıklamaya gerek duyulmaz, Solow verimlilik teorileri de bunun en önemli uygulama alanlarından bir tanesidir önceki yazılarda konuştuğumuz üzere. Dinamik dengelerde ise bu gelişmeler modelin bir girdisi haline getirilmeye çalışılır. ABD tarafından gördüğümüz sorun, AI tarafında dengenin yeterince dinamik olmaması, sene sonunda çektiğim videoda anlattığım üzere transformer mimarilerinin yerine eğer bir şeyler konmaz ise Çin’in burada teknik ustalık tarafında öne geçmesi kaçınılmaz olacaktır ve belki de bu başarılmış durumda. Nvidia, ve çip tarafına baktığımızda orada daha dinamik bir denge ve farklı fikirler görebiliyoruz Groq tarafında olduğu gibi ancak yazılım tarafında artık ABD’li şirketler Çinlilerin karlılıktan taviz veren çok oyunculu statik denge odaklı modeline yeniliyorlar. Bu nedenle Deepseek borsaya açık olmadığı için üzülmemize gerek yok, Alibaba zaten burada gördüğümüz tüm gelişmelerden eş zamanlı olarak etkileniyor, bu klasik dengenin ve “perfect competition” kavramının bir sonucu.
Bu senaryoda Çin’e H200 çipleri satmanın ne kadar mantıksız olduğunu anlatmaya sanırım gerek yok. Çin ADR’lerini portföyde tutmanın elbette politik riskleri de mevcut ancak Alibaba’nın küçük de olsa portföylere konmasının hedge ettiği riskler düşündüğümüzden daha gerçek ve daha büyük riskler.
Son bir iki haber de Çip dünyasından vermeden 2026 yılına başlamayalım; Google’ın Cowos kapasitesi bulma tarafında sorunlar yaşadığı ve TPU üretim hedeflerini düşürmek zorunda kalacağı haberleri konuşuluyor (tedarik zinciri riskinin stratejik önemine yazıda bahsetmiştim detayına oradan bakılabilir), bundan önce de Google tarafında hafıza çiplerinde istenen hacmin yaratılamaması nedeniyle bir yöneticinin kovulması gündemdeydi. Sundar’ın Sam Altman’ı şimdi daha iyi anladığını düşünüyorum.
Diğer bir yandan ise H200 çiplerini vermezsek kendi çiplerini yaparlar diye korkulan Çin H200 verileceği haberlerinin ardından %50 Çinli yarı iletken ekipmanı ile çip üretme zorunluluğu getirdi…
Utku Oktay Acundeğer














