Yapay zeka hisselerinde son dönemde yaşanan satışlar bir süredir piyasada mevcut tartışmaları hararetlendirmiş durumda, Michael Burry’nin son dönemde yaptığı açıklamalar birçok şirketin ve analistin paralel görüş bildirmesi ile yankı buldu. AI döngüsü hakkındaki tartışmalardan Burry’nin ana savunduğu tez GPU ürünlerinin amortisman sürelerinin çok kısa olması. Bu meseleyi biraz daha detaylı olarak ele alacağız ve sonrasında genel durumu konuşacağız.
Öncelikle GPU amortisman tartışmaları yeni bir konu değil. Bir önceki bilanço döneminde AI altyapısı satan şirketlerin döngülerinde arz-talep uyumsuzluğu yaşanması durumunda nasıl bir kriz yaşanabileceğini belirtmiştim ve ana krizin neocloud şirketlerinden çıkmasını beklediğimi söylemiştim. Ancak bugün bir krize dönecek koşullarda olduğumuz doğru değil.
GPU ürünler, Nvidia tarafından her yıl yeni modellerinin çıkması ile birlikte bir model cycle’ına geçebileceği için, şirketlerin ellerindeki Hopper kontratlarını iptal ederek Blackwell’e geçmesi ve ciddi bir atıl kapasite yaşanması ile sonuçlanabilecek bir ürün döngüsüne sahip. Risk aslında Burry’nin dediği gibi amortismanın maliyetli olmasından çok her yeni ürünü depolarınıza aldığınızda o ürün için çok ciddi bir talep olması ve likidite primi dediğimiz ek ücretlendirmenin karşımıza çıkması ile dönen, her seferinde önceki stokların zararını çıkarmak adına yeni ürünlere daha fazla yüklenen ve kendi kendini besleyen bir balon oluşması riski. 15/08 tarihli bilanço günlüklerinde bu konuyu şu şekilde açıklamıştım;
“Fakat esas mesele şirketin nasıl değerlenmesi gerektiği tarafında. İş modeli gereği çok hızlı büyüyen, GPU hizmeti veren ve yazılım desteği düşük olan ancak AI işleri için en yüksek kalitede çalışan bir şirket CoreWeave, ancak bunu yaparken çok yüksek bir sermaye harcaması ve çip döngüselliği riskleri var. Bu konsept yani GPU-as-a-Services konsepti ileride çok can yakacak bir model ve AI ile ilgili bir sert düzeltme olacaksa ileride buradan kaynaklanacaktır. Özetle iş modeli, her yeni çıkan Nvidia çipini en hızlı şekilde almak ve bunu az bulunurluğundan ötürü yüksek fiyata satmak üzerine (CoreWeave biraz daha farklı), bu model, sonraki yıllarda bu likidite priminin yeni çıkacak GPU modelleri nedeniyle tersine dönmesi ile de zarar geçmesi muhtemel olan, sonraki yıllardaki zarar kompanse etmek için yeni model çipin sürekli olarak daha fazla depolanması ve likidite primi alınması gereken sorunlu bir döngü. Finansman tarafında ise çarpıklık, tüm bu sürecin finansman teminatının yine bu çipler üzerinden olmasında, yani gelir sermaye harcaması faaliyet nakit akışına göre daha büyük pay edindikçe anlayın ki teminat da aynı hızla eriyor. Fakat şu anda korkulacak bir durum yok. CoreWeave ise likidite primi üzerinde çok az bir para kazandığını ifade ediyor ve Hooper hatta Amphere modellerinin hala daha çok ciddi eğitim sürecine katıldığını ifade ediyor. Bu durum beklentilerim ile paralel şu aşamada, çünkü CoreWeave, Kubernetes-Slurm Network altyapısı sayesinde en güçlü performansı sunuyor, Hopper ile zaten model eğitilebildiğini gördük Chat GPT sayesinde, CUDA’ya erişin yeter, sorun muhtemelen daha küçük yapılarda patlayacaktır.”
Evet sürecin patlamaya yaklaştığı anlarda bu sorun kendisini gösterecektir ve ana indicator kripto şirketlerinin çok daha fazla AI altyapısı modeline dönmeye başladığı ve herkesin AI altyapısı ile uğraşmaya başladığı bir dönemde gelmesi muhtemel. Bugün baktığımızda henüz böyle bir durum yok, evet bu sürece adım atan ve enerji altyapısı güçlü olduğu için buradan pay alacağına inanan şirketler var ancak şu anda bu döngünün başındayız. Gerçekten talep arzı aştığı için girmiş durumda mevcut oyuncular. Utilization oranlarının %100 olarak çalışıyor olması ve enerji tarafının bir sorun teşkil etmeye başlaması bunun en büyük göstergesi.
Burry’nin kaçırdığı ana konu ise GPU’ların kullanım proporsiyonunun yeni çiplere doğru direkt geçmek yönünde olmadığı gerçeği ve eskilerin hala oldukça karlı olması. Paylaştığım CoreWeave bilanço yorumlarında Hopper ve Ampere’a olan talebin çok güçlü olduğunu belirtmemin nedeni de buydu. Yenileme kontratlarında çok küçük marjlar ile iskonto alınıyor ve bir çok küçük oyuncu hala Hopper kullanmaya devam ediyor. Her çipin aslında farklı görev ve iş yükleri için verimli olduğu alanlar mevcut ve yazılım olarak her ürünün geliştirilme süreci bir hayat döngüsü içeriyor. Bu senenin başlarına baktığımızda Blackwell çipler Hopper seviyesinde performans veremiyordu ancak birkaç aylık süreç içerisinde gelen CUDA güncellemeleri yani yazılım desteği ile bu durum tersine döndü. Maliyet başına daha başarılı bir çip olan Blackwell, neticesinde Hopper’a göre daha pahalı bir ürün ve her kurumun ölçeğine göre uyumlu olmayabiliyor.
Burry’nin kaçırdığı diğer bir konu ise aslında sürecin kendi karlılık döngüsü. Anthropic şirketi şu anda inference sürecini yaklaşık %60 üzerinde karlılık ile yürütüyor, Open AI da kar tarafında güçlü ancak iki şirket de training süreçlerinde harcadıkları GPU nedeni ile faaliyet giderleri kalemlerinde yüksek görünüyor. Bu durum aslında AI’a özel bir durum değil. Özellikle 2010’lu yılların başlarında bu konuda yazılan çok başarılı makaleler mevcut. Charles Hulten gibi akademisyenler bu konularda önemli çalışmalar yaptılar ve aslında Microsoft gibi devlerin intangible bir Sermaye kullanımı ile büyümeyi gerçekleştirdiği, muhasebe olarak intangible sermaye gerçek sermaye gibi görünmediği ve yalnızca dönemsel olarak gelir tablosunda gider kalemlerinde muhasebeleştiği için şirketlerin ROIC rakamlarının gerçekte olandan çok daha karlı çıktığını yazdılar. Adjustment işlemlerini yaptığınızda, yani giderlerdeki kalemlerin aslında bir sermaye benzeri olan kısımlarını bilançoya çekip amortisman bedeli yansıttığınızda (oradaki arge benzeri giderler de düşük amortismanlı olarak düşünülmeli) aslında ciddi bir verimlilik artışı çıkmadığı bir gerçek. Peki Microsoft nasıl böyle bir dev haline geldi? Ürün geliştirme süreçleri sayesinde. Genel kanı olan bir birim sermayeden çok daha fazla para kazanıyorlar algısı hatalı, aslında olan şirketin sürekli olarak daha yüksek kalitede ürün geliştirmesi ve yazılım sektöründe olmasının avantajı ile birçok farklı ürün yaratıyor olması. Bunun en büyük göstergesi ise BEA tarafından o dönemde paylaşılan software fiyat deflatörü olarak çalışılmıştır. Bu gösterge, kalitesine oranla yazılımların birim fiyatlarını inceler ve Microsoft verileri ile paralel olarak bakılır. BEA software fiyat deflator’ına baktığımızda fiyatlar düzenli olarak Microsoft’un yükseliş döneminde aşağı gelmiştir fakat Word, Excel, Windows fiyatları düşmemiş aksine yükselmiştir, çünkü bu yazılımların kapsamları genişlemiştir ve artık aynı görevler için fiyatları aşağıya gelmiştir.
Peki bu hareket verimlilik için ne anlama gelmektedir? Verimlilik yani Total Factor Productivity, Sollow ve neoklasik modellerde kullanılır. Bu modellerde teknoloji ve inovasyon her zaman dışardan gelir ve aslında ölçemediğimiz karlılıktır. Bu modeller inovasyonu dışarıdan gelen bir etki olarak gördüğü için statik modellerdir ve mikro bazda sektör analizlerinde ana bilanço hareketlerinden başka bir kaleme bakmaz. Fakat sonradan 20.yy de Schumpeter ve Hayek’in statik (inovasyonu gelirse sadece dışarıdan gelen bir kavram olarak gören, rekabetin bir parçası görmeyen anlık duruma bakan modeller) modellere getirmiş olduğu eleştiriler ve inovasyonun kesinlikle süreçlerin içerisine entegre edilmesi gerektiğini belirtmeleri, Hulten gibi iktisatçıları inovasyon temelli kalemleri işin içerisine sokmaya itmiştir. Intangible varlıklar yani gelir tablosundaki arge, satış pazarlama, genel yönetim giderleri gibi kalemleri neoklasik modelin bir girdisi olarak kabul ettiğimizde, Total Factor Productivity rakamları çok daha düşük çıkmıştır.
Solow ve neoklasik verimlilikten Schumpeter-Hayek çizgisine geçiş, rekabet hukukunda da kendisine çok ciddi yer bulmuş bir konudur ve hatta Çin-ABD modellerinde kendisini çok enteresan şekillerde göstermektedir, bunu ayrı bir yazıda detaylandıracağım. Ancak bugün gördüğümüz durumda aslında AI maliyetlerinin neden bu kadar korkunç geldiği buradan anlaşılabilir, yeni bir değer yaratılıyor ancak bu değerin yaratılması için yapılan giderler bilançolarda daha fazla kendisini gösteriyor.
AI’a bu gözlük ile baktığımızda şunu görürüz, normal yazılım evreninin katma değerini çok daha yukarı çıkaracak bir ürün var ve bu yeni artık değerin önemli bir kısmı scaling dediğimiz çiplerden geliyor. 2030 yılına kadar baktığımızda AI modellerindeki tüm metodik gelişmelerin hepsi daha kritik mantık süreçlerine daha fazla işlem gücü boca etmek ile ilgili, bunun adı scaling. Scaling bu kadar önemli olduğu sürece yeni artık değerden önemli bir pay almayı da sürdürecektir. Fakat bu katma değerin yani daha akıllı yazılımlar yaratmanın, entegre platformlar kurabilmenin, otonom süreç yürütmenin bu kadar ciddi bir potansiyel getirmesi tek başına AI’ın ana katkısı değil. AI, aynı zamanda hem çalışan maliyeti olarak birçok iş tanımını hem de aynı yazılımı yeniden üretme tarafında Microsoft tarafında belirttiğimizin aksine yeni bir verimlilik de yaratıyor. Yani Microsoft, aynı işleri aslında daha verimli yaparak değil, çok fazla yaparak ve ürününü sürekli ileri taşıyarak oluşmuş bir devdi, rekabete izin vermemek adına fiyatlarını asla risk alacak kadar yüksek tutmadı, şimdi hem ürünleri çok daha fazla ileriye taşınacak hem de işler daha verimli hale getirilmiş olacak. Yazılım üretmek başta olmak üzere tüm süreçlerin neoklasik verimlilik açısından da bir değişimi söz konusu. Bu değişime hazırlanmakta olan şirketler de bilançolarında önemli giderler yazıyorlar, tıpkı AI öncesi dönemde yazılım şirketlerinin uzun yıllar zarar yazması gibi.
Peki her şey çok mu güzel? Elbette değil, hayatın bazı acı gerçekleri var. O gerçeklerden başlıca olanı AI’dan herkesin kolay kolay gelir elde edemeyecek olması ve daha kısıtlı bir zümrenin ilk süreçte daha hızlı gelir edecek olması. Meta tarafına baktığımızda sat uyarısı yapmamın ana nedeni ilk kez fazla kapasitenin telaffuz edilmiş olmasından geliyor, ancak Open AI ve Anthropic için bu durum söz konusu değil aksine birçok projelerini çip eksiği yüzünden hayata geçirmekte dahi zorlanıyorlar. Palantir’in bu konuda yaptığı açıklamalar da çok önemli, Alex Karp, aslında verimlilik bulmakta zorlanan şirketlerin harcamalarını kendi üstlerine geçirmelerini istiyor, AI ile şirketler arasında bir yazılım katmanı olmak durumunda şu an ve bunu yapabilen şirketler için operasyon oldukça karlı.
Uzun lafın kısası, AI’ın eski yazılım dünyasının daha fazla değer üreten ve daha maliyetli bir ürün olduğu kanaatindeyim. Bugün yapay zekâ uygulamalarının hala genişlemekte olan bir arge süreci var ve sürekli olarak kullanımı artmakta olan bir inferencing süreci var. İki kanalın da talebi çok yüksek ve arz tarafı fazla olması ile değil, enerji ekipmanları ve çip hariç fiziki altyapının gerçekleştirilmesi yönünden tam tersi bir sorun yaşıyor. Bunun portföylerde bir karşılığı muhakkak var ancak bir balon ile karşı karşıya olduğu kanaatinde değilim.
Yazıda yalnızca 2026 yılında hızlı büyüyecek olan yazılım sektörü ve uygulama sektörü incelendi, bunun yanı esas yükseliş olacak olan fiziksel AI ve robotic süreçlerini, dijital ikizleri, otonom sürüşleri, bunların mevcut arge ve yeni yeni başlayan uygulamalarını eklersek esas hedef pazarın ne olduğunu daha iyi görebiliriz. Henüz önceki balonlara göre altyapı harcamaları toplam ekonomiye oranla çok daha düşük seviyelerde gerçekleşmiş olan AI altyapısı için henüz korkum yok. Hareketlerin temelini makro ekonomi tarafında aramak daha mantıklı duruyor.
Utku Oktay Acundeğer


















