Cerebras, AI modellerinin arkasındaki hardware olma yoluna baş koymuş en popüler Nvidia rakiplerinden bir tanesi. Düzenli olarak çiplerinin performanslarına dair yaptıkları iddialı açıklamalar ve bağımsız kurumlar tarafından da desteklenen performans göstergeleri, şirket için ciddi bir merak uyandırdı. Bugün de halka arzı sonrasında neler olabileceğini ve Nvidia’yı tahtından edebilecek mi onu konuşmaya çalışacağız.
Teknik kısımlara geçmeden önce 30 Eylül’de açıklanan halka arz raporundaki bazı dikkat çekici noktalardan başlayalım. Şirketin gelirlerinde çok önemli bir büyüme mevcut. 2023 yılında 2022 yılına göre 3 katından fazla gelir yaratmış olan şirket 6 aylık dönemde de 2024 yılına fırtına gibi başlamış durumda, 2023 yılının tamamında $78 milyon gelir elde eden şirket 2024 yılının ilk 6 ayında $136 milyon gelir yaratmış. Bu rakam çok etkileyici gibi görünse de bir problem var, gelirlerin %80 kadarını tek bir şirketten gelmiş; G42. G42 Abu Dabi merkezli bir şirket ve direkt olarak oranı yazmıyor ancak şirket müşteri olduğu gibi bir yatırımcı da. İki müşterinin satış payları olarak belirtildiğinde G42’ye işaret edildiği anlaşılıyor. Aynı zamanda şirketin ileride hisse senedi alım hakları da var, yani şirket Cerebras’tan ürün aldıkça aslında gelecekte alabileceği paylar için de yatırım yapmış oluyor. Rakamlara baktığımızda bence buradan sonrası çok kolay yorumlanabilir değil zira tek bir şirkete çalışan, bu tek tüketici dışında oldukça küçük bir operasyona sahip olduğunu görüyoruz.
G42 şirketi aynı zamanda bir risk de teşkil ediyor, firmanın sahibi, Birleşik Arap Emirlikleri kurucu şeyhinin oğlu olan Tahnoun Bin Zayed El Nahyan. Yani Birleşik Arap Emirlikleri ile ABD ilişkileri oldukça önem arz ediyor olacak. İşin finansal tarafına baktığımızda ise bu kadar iddialı bir şirketin yaklaşık %30-40 bandında bir brüt kar marjı yarattığını görüyoruz. Bu rakam Nvidia’nın egemenliğini kırmak isteyen bu nedenle marjlarından taviz veren AMD rakamlarının da altında kalıyor. Bu kadar iddialı bir şirketin bu kadar büyük pazarda oldukça küçük bir hacim ve düşük marjlar ile çalışıyor olması aslında başlı başına düşündürücü bir durum. Şirketin aynı zamanda finansallarına baktığımızda yatırımlar ile beraber 2023 yılı sonunda yaklaşık $150 milyon civarında bir nakit benzeri varlığı olduğunu görüyoruz. Yıllık operasyonel nakit akışı ise $78 milyon dolar eksi olarak kaydedilmiş. Yani faaliyetlerine devam edebilmesi için nakit bulmak durumunda olduğu kesin sayılır ancak halka arz neden tercih edildi, bu önemli bir soru. İçinde bulunduğumuz dönemde halka arz sayıları oldukça seyrekleşmişken ve Groq gibi aynı sektördeki diğer popüler oyuncular fonlama alabiliyorken neden bu nakit ihtiyacı halka arz ile gideriliyor ? Bu tarz şirketler için baktığımızda hareket alanı ve hesap verilebilirlik konusundaki sıkı takip halka açılmayı bir dezavantaj olarak gösterir. Baktığımızda Groq, Sambanova, Open AI, Anthropic gibi şirketler halka açık şirketler değiller. G42 riski öne çıkıyor olabilir veya şirketin G42 dışında herhangi bir Cloud devinden önemli gelir elde edememiş olması, ürüne dair inançları kırıyor olabilir
Tam bu noktada ürüne geçebiliriz. Önce iddialı yönlerden bahsedelim. Cerebras, aslında bir çok diğer popüler “AI” startup’ı gibi Nvidia’yı hedef almış durumda çünkü değer zincirinin en önemli halkası Nvidia ve pasta oldukça büyük. Şirket kurucuları eskiden AMD’de çalışmış mühendisler ve şöyle bir iddia ile yola çıkıyorlar; GPU’ların boyutları ve hafıza erişimleri AI projeleri için yetersiz. Bu doğru bir iddia ve daha önce çok defa memory wall olarak adlandırılan sorundan bahsetmiştik. Buna çözüm olarak Cerebras, daha büyük çiplerde, memory ile işlemciyi bağlamaya uğraşmak yerine birbirine tamamen bağlı halde üretimi uygun görmüş. Wafer scaling denen süreç, normal çip üretiminden biraz daha farklı. Normalde wafer dediğimiz alt katman üzerinde çipler yerleştirilir ve ardından bu wafer katmanları kesilerek farklı farklı çipleri oluşturulur. Cerebras tam burada “Kesme !” diyor tüm bir wafer katmanını doğrudan litografi sürecine sokuyor. Litografi süreçlerinde standardizasyon çip boyutlarında işleme olduğu için ortaya aynı wafer üzerinde bir sürü çip çıkıyor ancak tek hatta bulunuyorlar. Aralara da yapışık halde memory yerleştiriliyor ve GPU’larda olduğu gibi dışarıdaki memory bilgilerini çekmeye uğraşmak yerine direkt buradaki memory alanına model ağırlıklarını yerleştiriyorlar ve bitti. Aslında mantık oldukça basit, çok fazla GPU’yu birbirine bağlamaya ve bir sürü farklı noktalardan memory getirmeye uğraşmayalım, direkt tek parça halinde yapışık olarak hazırlayalım ve ikisi de ölçeklenmiş olsun, bunu yaparken de çipler arası ve memory ile işlemci arası bağlantı sorununu da çözmüş olalım.
Cerebras bu çözüm sayesinde rakiplerine göre çok daha yüksek hafıza erişimi sağlayabiliyor. Nvidia çiplerinde kullanılan HBM çipleri ve ana memory olan DRAM mevcut değil. GPU’lardaki gibi memory’den veri çekmek yerine yalnızca SRAM denen memory çipleri kullanılıyor ve çiplerin içine gömülü bir memory yaratılıyor. Bugün baktığımızda Blackwell çiplerinde de bu bağlantı meselesi ciddi önem arz ediyor ve ethernet gibi bağlantı hatları da en önemli alanlardan biri. Rakamlara baktığımızda Hopper çiplerine göre çok daha yüksek perfomanslar alabildiğini görebiliyoruz. Burada şirketin temelinde fark yarattığını düşündüğü alanlar şunlar;
– Çipler büyümeli, büyümediği takdirde bir sürü GPU’yu beraber çalıştırmak için ciddi emek harcanıyor ve kod yazılıyor, ölçeklemeden de tam verim alınamıyor
– Hafıza ve işlemci arasında bağlantıyı güçlendirmek için çok ciddi kaynak harcanıyor ve bu da kompleksite yaratıyor
– Nvidia’da bunun doğru olduğunu biliyor ve çiplerini büyütüyor ancak bizim burada ciddi uzmanlığımız var
Tam buradan da şirketin neden Nvidia’nın devasa para kazandığı bir alanda bu kadar küçük kalmış olabileceğine bu rekabet avantajları üzerinden yanıt bulmaya çalışalım. Burada daha düşük kar marjları ile çalıştıkları için fiyat performans anlamında daha yüksek olan çiplerinin, neden şirketlerin kurulu düzenlerini değiştirme maliyetine değmediğini bulmaya çalışacağız
Öncelikle tek bir wafer üzerinde bir sürü çip bulundurmak yapılan işlemin tek tek her bir işlemciye dağıtılması anlamına geliyor ve bu başlı başına bir kompleksite yaratıyor. Bunun tasarlanabilmesi için ayrı compiler dediğimiz yazılımlar gerekiyor ki hazırdaki modeller bu formata uygun çalışabilsin. Şirket bu alanda çalışmalarını sürdürüyor ancak henüz yeterli aşamaları kaydedebilmiş olduğu şüpheli. Çip üzerinde tüm bu küçük çipleri koordine eden network yazılımlarının ölçek büyüdüğünde veya farklı programlar ile beraber çalıştığında nasıl bir verim vereceği de meçhul görünüyor. Benzer bir durum hafıza tarafı için de geçerli. Maliyet ve ölçeklenme arttığında nasıl bir performans göreceğimiz belirsiz. Şirket sürekli olarak open source modellerden Llama 3.1 üzerinden örnek veriyor ancak en çok 80 milyar parametreli olan modeli görüyoruz, şirketin bu konuları da netleştirmesi için 400 milyar parametreli modellerde de veri çıkarması gerekiyor. Üzerinde çalıştıklarını söylüyorlar
Bir diğer sorunun ise uzun vadede lithografi tarafında olduğunu düşünüyorum. Bu konuştuğumuz tüm aşamalar ASML şirketi tarafından üretilen Lithografi makineleri sayesinde var ve bu makinelerin daha geniş çaplar için üretilmeyeceğini kendileri açıkladılar. Bunu maliyet getiri olarak mantıklı bulmuyorlar. Bu da aslında şirketin daha büyük çiplerideki uzmanlığının aslında fiziki bir sınırı olmuş olabileceğini ve gelişimin bundan sonra üstel şekilde devam edip etmeyeceğini sorduruyor. Bir taraftan ise Nvidia üssel gelişim hızına devam ediyor ve GPU formatından benzer özellikler muhafaza edilmiş şekilde bir AI çipi geliştiriyor; Blackwell. Blackwell ile çok ciddi bir performans artışı sağlanacak ve aynı zamanda çip setinin tasarımı, TSMC’nin yeni paketleri sayesinde çok daha yüksek hafıza erişimine sahip olacak, aynı zamanda daha büyük olması itibariyle kompleksite sorunlarının çözmek için bir adım atmış olacak, muhtemelen sonra gelecek olan Rubin serisi bu konuda bir adım daha ileri gitmiş olacak
Nvidia’nın attığı önemli adımlardan bir tanesi 2019 yılında satın aldıkları Mellanox şirketi oldu. Bu sayede Nvidia bağlantı hatlarını sürekli olarak güçlendiriyor ve bir ekosistem olma özelliğini her geçen gün daha çok hissettiriyor. Yeni B200 çiplerinde de sundukları ürün portföyünde lineer ölçeklemeyi yakalamış durumdalar. Daha fazla çip oyuna girdikçe performans da lineer olarak artış gösteriyor. Bu şekilde aslında Nvidia’nın yazılım hariç performansı da Cerebras’a her geçen gün biraz daha yaklaşıyor gibi görünüyor
Yazılımdan bahsetmişken, tabi ki en büyük güç hala CUDA tarafında. Ancak burada da önemli çalışmalar oluyor ve Pytorch, Triton gibi yazılımlar da güç kazanıyor, open source tarafta popülerliklerini sürdürüyor. Cerebras tarafından yapılan açıklamalarda ve röportajlarda Pytorch’un artık yakın performanslar verebildiği ve open source üzerinden gelişimin sürmesini beklediklerini görüyoruz. Önemli yol kat edildiği doğru ancak hala ürün geliştirme tarafında CUDA çok özel bir yerde duruyor ve bir çok yazılım için performansı hala rakipsiz. İşin tabi ki bir de şu tarafı var. Triton Open AI üretimi, Pytorch ise Meta üretimi yazılımlar, benzer işlevdeki Tensorflow ise Google üretimi. Bu şirketler bu yazılımlar ile koordine çalışabilen ASIC çiplerini üretirken neden sadece silikon için Cerebras’a yatırım yapsınlar? ASIC çipler sayesinde Cerebras’tan daha ciddi bir esneklik ile Jensen payını biraz olsun az ödemeyi başarıyorlar gibi görünüyor.
Cerebras yılın en heyecanlı halka arzı olacak ve AI alanında bir saf AI şirketinin halka arz olması tüm tartışmalara rağmen oldukça pozitif. Şirketin, öncelikle halka arza neden çıktığını gelecek olan talepten takip edeceğiz ve bu yola zorunda kalmadıkları için girmiş olduğunu umacağız, ardından ise değerlemeye bağlı olarak hyperscaler şirketlerden bir talep oluşana kadar bekleyeceğiz. Bunun doğru strateji olacağını düşünüyorum. Şirketin hedef pazarı zaten dev Cloud şirketleri, yapılacak olan yatırım ancak milyonlarca dolar olabiliyor, bu nedenle daha küçük modeller için zaten performansı düşüyor olsa da şirketin fiyatlaması da buna uygun değil. Groq gibi rekabetçi oyuncuların da bulunduğu bu piyasada Cerebras’ın yolu çok öğretici olacaktır
Gelecekte neler olabileceğine dair kafa yorarken, veri merkezlerinin dışında dönen dünyanın da çok etkileyici olduğunu ve daha da etkileyici olacağını varsayabiliriz. Bugün Cerebras, Infrustructre as a Service (IAAS) alanında çok farklı bir tecrübe yaratıyor ve cloud devlerinin tüm o hizmetler ağından çıkmak aslında yeni yazılımlar ile mümkün. AI, özellikle yazılım başta olmak üzere bir çok sektörde giriş bariyerlerini ciddi şekilde azaltacaktır. Cerebras örneğinde her bir çip için ayrı bir kodlama yapılacak olması ayrı bir compiler gerektiriyor, bu durum baktığımızda eskiden x86’dan Arm mimarilerine geçiş için çok ciddi bir engel teşkil ediyordu. Şimdi ise LLVM ve onun uzantısı olan MLIR yazılımlarını görüyoruz. Bu sayede farklı compiler’lar birbirlerine daha rahat dönüştürülebiliyorlar. Bugüne kadar hyperscaler şirketler ürünleştirme tarafında çok başarılı olmaları sayesinde birer ekosistem olmayı başabildiler ve bu avantajlarını elbette sürdürecekler ancak Cerebras gibi farklı oyunculara da alışkın olmamız gerekiyor. Artık farklı yazılım altyapılarını birbirine dönüştürmek eskiye göre çok daha kolay ve daha da kolaylaşacak. RISC-V gibi mimarilerin ileride veri merkezlerinde daha da yaygınlaşmasını bekliyorum, ancak yakın bir ileride değil, bunun için biraz daha transformer mimarisinin ürünleştirme tarafında doygunluğa ulaşması gerekiyor
Yeni şirketler gelmeye başlıyor ve bu şirketler model olarak yalnızca Nvidia’yı değil aynı zamanda AWS, Azure, Google Cloud gibi devleri de tehdit eden tamamen AI odaklı şirketler konumundalar. Her geçen gün AI sayesinde yazılımlar daha birbirlerine dönüştürülebilir oluyorlar ve fiks kütüphanelerin, bağımlılıkların değeri azalıyor. Gözümüzü ayırmadan bu alandaki yeni projeleri takip etmek durumundayız ve bugün Cerebras’ın da sırtını verdiği bu hızlı dönüştürülebilir ve ölçeklenebilir open source yazılım dünyasının açacağı kapıları, yıkacağı duvarları iyi anlamalıyız
Utku Oktay Acundeğer