AI Büyük Modeller: Mühendislik Problemleriyle Başlayan Bir Devrim
Geçen ay, AI dünyasında bir "hayvan savaşı" başladı.
Bir taraf, Meta'nın piyasaya sürdüğü Llama serisi modelleridir ve açık kaynak özelliği nedeniyle geliştiricilerin büyük beğenisini kazanmıştır. Japon NEC şirketi, Llama makalesi ve koduna dayanarak Japonca versiyon ChatGPT'yi hızlı bir şekilde geliştirmiştir ve bu, Japonya'nın AI alanındaki teknik darboğazını çözmüştür.
Diğer taraf, Falcon adı verilen büyük bir modeldir. Bu yılın Mayıs ayında, Falcon-40B piyasaya sürüldü ve Llama'yı geçerek "açık kaynak büyük dil modeli sıralaması"nda zirveye yerleşti. Bu liste, açık kaynak topluluğu Hugging Face tarafından hazırlanmıştır ve LLM yeteneklerini değerlendirmek için bir standart sunmaktadır. Bu tarihten sonra, Llama ve Falcon sıralamayı peş peşe güncelleyerek yeniledi.
Eylül ayının başında, Falcon 180B sürümünü tanıttı ve yeniden liste başı oldu. İlginç olan, Falcon'un geliştiricisinin bir teknoloji şirketi değil, Abu Dabi'deki Teknoloji Yenilik Araştırma Enstitüsü olmasıdır. BAE yetkilileri, AI yarışmasına katılmalarının mevcut düzeni alt üst etmek için olduğunu belirtti.
Bugün, AI alanı birçok farklı görüşün ortaya çıktığı bir aşamaya girmiştir. Belirli bir güce sahip olan ülkeler ve şirketler, yerli versiyon ChatGPT'yi oluşturmayı denemektedirler. Sadece Körfez ülkelerinde bile birçok oyuncu bulunmaktadır; Suudi Arabistan, yakın zamanda yerel üniversiteler için 3000'den fazla H100 çip satın alarak LLM'leri eğitmek üzere kullanmıştır.
Bir yatırımcı şöyle hayıflandı: "Bir zamanlar internetin iş modeli yeniliklerini küçümsüyordum, hiçbir engel yoktu gibi geliyordu. Sert teknoloji büyük model girişimlerinin hala yüzlerce model savaşına dönüşeceğini düşünmemiştim..."
Zaten yüksek zorlukta bir sert teknoloji olarak değerlendirilen şey, neden "bir ülke bir model" durumuna dönüştü?
Transformer: AI Devriminin Motoru
Amerika'daki girişimler, Çin'in teknoloji devleri ve Orta Doğu'daki petrol baronları büyük model geliştirmeye katılıyor; bunun kaynağı ise ünlü bir makale: "Attention Is All You Need".
2017 yılında, 8 Google bilim insanı bu makalede Transformer algoritmasını kamuya açıkladı. Bu makale, şu anda AI tarihindeki en çok atıfta bulunulan üçüncü makaledir ve Transformer'ın ortaya çıkışı bu AI dalgasını tetikledi.
Mevcut çeşitli büyük modeller, dünya çapında büyük yankı uyandıran GPT serisi de dahil olmak üzere, Transformer temeli üzerine inşa edilmiştir.
Daha önce, "makinelere okumayı öğretmek" akademik dünyada kabul görmüş bir zorluktu. Görüntü tanımadan farklı olarak, insanlar okurken bağlamı anlama yeteneğine sahiptir. Erken dönem sinir ağları uzun metinleri işlemekte zorlanıyordu, sık sık "açık su odası" gibi hatalarla karşılaşıyordu.
2014 yılında, Google bilim insanı İlya, döngüsel sinir ağları (RNN) kullanarak doğal dili işledi ve Google Çeviri'nin performansını önemli ölçüde artırdı. RNN, "döngüsel tasarım" sayesinde sinir ağlarına bağlamı anlama yeteneği kazandırır.
Ancak RNN'in ciddi eksiklikleri var: Sıralı hesaplama verimliliği düşürüyor ve çok sayıda parametreyi işlemek zorlaşıyor. 2015 yılından itibaren, Google'dan bilim insanı Vaswani ve diğerleri RNN alternatifleri geliştirmeye başladılar ve sonunda Transformer'ı piyasaya sürdüler.
RNN'ye kıyasla, Transformer'ın iki büyük yeniliği var: biri, konum kodlaması kullanarak paralel hesaplamayı sağlamak, eğitim verimliliğini büyük ölçüde artırmak; diğeri ise bağlam anlama yeteneğini daha da güçlendirmek.
Transformer birden fazla sorunu çözerek, NLP alanında ana akım bir çözüm haline geldi. Bu, büyük modellerin teorik araştırmadan saf mühendislik sorununa dönüşmesini sağladı.
2019'da OpenAI, Transformer teknolojisini temel alarak GPT-2'yi geliştirdi. Buna yanıt olarak, Google hızla daha güçlü Meena'yı piyasaya sürdü. Meena, yalnızca parametreler ve hesaplama gücü açısından GPT-2'yi büyük ölçüde aştı, temel algoritmada herhangi bir yenilik yoktu. Bu durum, Transformer yazarlarından Şahzade'yi "şiddetli birikim"in gücüne hayran bıraktı.
Transformer'ın ortaya çıkmasından sonra, akademik dünyada temel algoritma yeniliklerinin hızı yavaşladı. Veri mühendisliği, hesaplama ölçeği, model mimarisi gibi mühendislik unsurları, AI yarışmasının anahtarı haline geldi. Belirli bir teknik yeterliliğe sahip olan her şirket, büyük bir model geliştirebilir.
AI uzmanı Andrew Ng, AI'nın elektrik ve internet gibi bir dizi genel teknoloji aracı haline geldiğini düşünüyor.
OpenAI hala LLM'nin lideri olsa da, sektördeki analistler GPT-4'ün avantajının esasen mühendislik çözümlerinden kaynaklandığını düşünüyor. Açık kaynak hale geldiğinde, rakipler bunu hızla kopyalayabilir. Yakın bir gelecekte, diğer büyük teknoloji şirketlerinin de GPT-4 ile karşılaştırılabilir büyük modeller geliştirebileceği öngörülüyor.
Zayıf Savunma Hattı
Artık "Yüz Model Savaşı" gerçek oldu. Rapor, bu yıl Temmuz itibarıyla Çin’deki büyük model sayısının 130'a ulaştığını ve bunun da Amerika'nın 114'ünü geçtiğini gösteriyor. Çeşitli mitolojik hikayeler, yerli teknoloji şirketleri için isimlendirmek için artık yeterli değil.
Çin ve ABD dışında, birçok gelişmiş ülke de "bir ülke bir model" ilkesini ilk aşamada gerçekleştirdi: Japonya, Birleşik Arap Emirlikleri, Hindistan, Güney Kore gibi ülkeler yerel büyük modellerini peş peşe tanıttı. Bu manzara, sanki internet balon dönemine geri dönülmüş gibi, "para yakmak" ana rekabet aracı haline geldi.
Transformer, büyük modelleri saf mühendislik problemlerine dönüştürüyor, sadece insan gücü ve kaynak varsa geliştirilebiliyor. Ancak giriş yapmak kolay, AI çağının devlerinden biri olmak ise çok zor.
Yukarıda bahsedilen "Hayvan Savaşı" tipik bir örnektir: Falcon, sıralamada Llama'yı geride bırakmasına rağmen, Meta üzerindeki etkisi sınırlıdır.
Şirketler, açık kaynaklı bilimsel sonuçlarıyla teknolojik refahı paylaşmanın yanı sıra, toplumsal zekayı da harekete geçirmeyi umuyor. Farklı alanlardan gelen kullanıcılar Llama'yı sürekli olarak geliştirdikçe, Meta bu sonuçları kendi ürünlerinde uygulayabilecektir.
Açık kaynak büyük modeller için, aktif geliştirici topluluğu esas rekabet avantajıdır.
Meta, 2015 yılında AI laboratuvarını kurduğunda açık kaynak politikasını belirlemişti. Zuckerberg, "toplum ilişkilerini iyi yönetme" konusunda derin bir bilgiye sahip. Ekim ayında, Meta, sosyal sorunları çözmek için Llama 2'yi kullanan geliştiricilere destek veren "AI versiyonu içerik oluşturucu teşvikleri" etkinliğini de başlattı.
Bugün, Meta'nın Llama serisi açık kaynak LLM'lerin mihenk taşı haline geldi. Ekim ayı başı itibarıyla, Hugging Face sıralamasının ilk 10'undaki 8 Llama 2 tabanlı geliştirilmiş olup, açık kaynak lisansını kullanan 1500'den fazla LLM bulunmaktadır.
Performansı artırmak elbette önemlidir, ancak şu anda çoğu LLM ile GPT-4 arasında hala belirgin bir fark var. En son AgentBench testinde, GPT-4 4.41 puanla zirveye yerleşirken, ikinci sıradaki Claude yalnızca 2.77 puan aldı, açık kaynak LLM'ler ise genellikle 1 puan civarında.
GPT-4'ün piyasaya sürülmesinin üzerinden altı aydan fazla geçti ve dünya genelindeki meslektaşları hala bunu yakalamakta zorlanıyor. Bunun nedeni, OpenAI'nin önde gelen bilim insanları ekibi ve uzun süreli LLM araştırma deneyimidir.
Görülebilir ki, büyük modelin temel yeteneği ekosistem inşasında yatıyor ( açık kaynak ) veya tamamen çıkarım yeteneği ( kapalı kaynak ), basit bir parametre yığınından ziyade.
Açık kaynak topluluğunun aktifliği ile, çeşitli LLM'lerin performansları benzer modellerin mimarileri ve veri setlerini kullanmaları nedeniyle benzeşebilir.
Daha somut bir sorun şudur: Midjourney dışında, görünüşe göre henüz hiçbir büyük model kâr elde edemedi.
Değerin Çapa Noktası
Bu yılın Ağustos ayında, "OpenAI'nın 2024 yılının sonunda iflas etme ihtimali" başlıklı bir makale dikkatleri üzerine çekti. Ana görüş ise: OpenAI'nin para harcama hızı çok hızlı.
Makale, ChatGPT'nin geliştirilmesinden bu yana OpenAI'nin zararlarının hızla arttığını, 2022'de yaklaşık 540 milyon dolar zarar ettiğini ve yalnızca Microsoft yatırımına güvenebildiğini belirtiyor.
Bu, büyük model sağlayıcılarının genel olarak karşılaştığı bir ikilemi yansıtıyor: maliyet ve gelir arasında ciddi bir dengesizlik.
Yüksek maliyetler, şu anda ana faydalanıcıların NVIDIA ve Broadcom gibi çip üreticileri olmasına neden oldu.
Tahminlere göre, Nvidia bu yılın ikinci çeyreğinde 300.000'den fazla H100 AI çipi sattı ve bu, 4.5 Boeing 747'ye eşdeğer bir ağırlık. Nvidia'nın gelirleri %854 artarak Wall Street'i şok etti. H100'ün ikinci el fiyatı 40.000-50.000 dolar seviyesine yükselirken, maliyeti sadece 3.000 dolardan fazla.
Hesaplama gücü maliyeti, sektörün gelişiminde bir engel haline geldi. Sequoia Capital'in hesaplamalarına göre, dünya genelindeki teknoloji şirketleri her yıl büyük model altyapılarına 200 milyar dolar harcayacak, ancak büyük modellerin yıllık geliri en fazla 75 milyar dolar; bu da en az 125 milyar dolarlık bir açığın olduğu anlamına geliyor.
Birkaç istisna dışında, çoğu yazılım şirketi büyük maliyetler harcadıktan sonra hala kârlılık modeli bulamadı. Hatta sektör liderleri Microsoft ve Adobe bile zorluklarla karşı karşıya.
Microsoft'un OpenAI ile birlikte geliştirdiği GitHub Copilot, aylık 10 dolar ücret almasına rağmen 20 dolar zarar ediliyor, yoğun kullanıcılar Microsoft'u aylık 80 dolar zarara sokabiliyor. Yeni çıkan Microsoft 365 Copilot'un fiyatı 30 dolar, zarar daha fazla olabilir.
Adobe, Firefly AI aracını tanıttıktan sonra, kullanıcıların aşırı kullanımını sınırlamak için hızla bir puan sistemi başlattı ve bu durum şirketin zarar etmesine yol açtı. Aylık tahsis edilen puanları aşan kullanıcıların hizmet hızı düşürülecektir.
Microsoft ve Adobe'nin net iş senaryoları ve çok sayıda ücretli kullanıcısı var. Ancak, parametre yığınlarıyla dolu olan büyük modellerin en büyük uygulama alanı hala sohbet.
OpenAI ve ChatGPT'nin ortaya çıkışı bu AI devrimini tetikledi, ancak mevcut aşamada büyük modellerin eğitiminin değeri sorgulanıyor. Homojen rekabetin artması ve açık kaynaklı modellerin çoğalmasıyla, yalnızca büyük model tedarikçilerinin alanı daha da daralabilir.
iPhone 4'ün başarısı 45nm üretim sürecindeki A4 işlemcide değil, "Bitkilerle Zombilere Karşı" ve "Öfkeli Kuşlar" oyunlarını oynayabilmesindedir.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 Likes
Reward
7
2
Share
Comment
0/400
BTCRetirementFund
· 16h ago
Bir grup yapay zeka kavga ediyor, oldukça hareketli.
AI büyük model rekabeti kızışıyor: teknik engeller düşüşte, ticari sorunlar belirginleşiyor
AI Büyük Modeller: Mühendislik Problemleriyle Başlayan Bir Devrim
Geçen ay, AI dünyasında bir "hayvan savaşı" başladı.
Bir taraf, Meta'nın piyasaya sürdüğü Llama serisi modelleridir ve açık kaynak özelliği nedeniyle geliştiricilerin büyük beğenisini kazanmıştır. Japon NEC şirketi, Llama makalesi ve koduna dayanarak Japonca versiyon ChatGPT'yi hızlı bir şekilde geliştirmiştir ve bu, Japonya'nın AI alanındaki teknik darboğazını çözmüştür.
Diğer taraf, Falcon adı verilen büyük bir modeldir. Bu yılın Mayıs ayında, Falcon-40B piyasaya sürüldü ve Llama'yı geçerek "açık kaynak büyük dil modeli sıralaması"nda zirveye yerleşti. Bu liste, açık kaynak topluluğu Hugging Face tarafından hazırlanmıştır ve LLM yeteneklerini değerlendirmek için bir standart sunmaktadır. Bu tarihten sonra, Llama ve Falcon sıralamayı peş peşe güncelleyerek yeniledi.
Eylül ayının başında, Falcon 180B sürümünü tanıttı ve yeniden liste başı oldu. İlginç olan, Falcon'un geliştiricisinin bir teknoloji şirketi değil, Abu Dabi'deki Teknoloji Yenilik Araştırma Enstitüsü olmasıdır. BAE yetkilileri, AI yarışmasına katılmalarının mevcut düzeni alt üst etmek için olduğunu belirtti.
Bugün, AI alanı birçok farklı görüşün ortaya çıktığı bir aşamaya girmiştir. Belirli bir güce sahip olan ülkeler ve şirketler, yerli versiyon ChatGPT'yi oluşturmayı denemektedirler. Sadece Körfez ülkelerinde bile birçok oyuncu bulunmaktadır; Suudi Arabistan, yakın zamanda yerel üniversiteler için 3000'den fazla H100 çip satın alarak LLM'leri eğitmek üzere kullanmıştır.
Bir yatırımcı şöyle hayıflandı: "Bir zamanlar internetin iş modeli yeniliklerini küçümsüyordum, hiçbir engel yoktu gibi geliyordu. Sert teknoloji büyük model girişimlerinin hala yüzlerce model savaşına dönüşeceğini düşünmemiştim..."
Zaten yüksek zorlukta bir sert teknoloji olarak değerlendirilen şey, neden "bir ülke bir model" durumuna dönüştü?
Transformer: AI Devriminin Motoru
Amerika'daki girişimler, Çin'in teknoloji devleri ve Orta Doğu'daki petrol baronları büyük model geliştirmeye katılıyor; bunun kaynağı ise ünlü bir makale: "Attention Is All You Need".
2017 yılında, 8 Google bilim insanı bu makalede Transformer algoritmasını kamuya açıkladı. Bu makale, şu anda AI tarihindeki en çok atıfta bulunulan üçüncü makaledir ve Transformer'ın ortaya çıkışı bu AI dalgasını tetikledi.
Mevcut çeşitli büyük modeller, dünya çapında büyük yankı uyandıran GPT serisi de dahil olmak üzere, Transformer temeli üzerine inşa edilmiştir.
Daha önce, "makinelere okumayı öğretmek" akademik dünyada kabul görmüş bir zorluktu. Görüntü tanımadan farklı olarak, insanlar okurken bağlamı anlama yeteneğine sahiptir. Erken dönem sinir ağları uzun metinleri işlemekte zorlanıyordu, sık sık "açık su odası" gibi hatalarla karşılaşıyordu.
2014 yılında, Google bilim insanı İlya, döngüsel sinir ağları (RNN) kullanarak doğal dili işledi ve Google Çeviri'nin performansını önemli ölçüde artırdı. RNN, "döngüsel tasarım" sayesinde sinir ağlarına bağlamı anlama yeteneği kazandırır.
Ancak RNN'in ciddi eksiklikleri var: Sıralı hesaplama verimliliği düşürüyor ve çok sayıda parametreyi işlemek zorlaşıyor. 2015 yılından itibaren, Google'dan bilim insanı Vaswani ve diğerleri RNN alternatifleri geliştirmeye başladılar ve sonunda Transformer'ı piyasaya sürdüler.
RNN'ye kıyasla, Transformer'ın iki büyük yeniliği var: biri, konum kodlaması kullanarak paralel hesaplamayı sağlamak, eğitim verimliliğini büyük ölçüde artırmak; diğeri ise bağlam anlama yeteneğini daha da güçlendirmek.
Transformer birden fazla sorunu çözerek, NLP alanında ana akım bir çözüm haline geldi. Bu, büyük modellerin teorik araştırmadan saf mühendislik sorununa dönüşmesini sağladı.
2019'da OpenAI, Transformer teknolojisini temel alarak GPT-2'yi geliştirdi. Buna yanıt olarak, Google hızla daha güçlü Meena'yı piyasaya sürdü. Meena, yalnızca parametreler ve hesaplama gücü açısından GPT-2'yi büyük ölçüde aştı, temel algoritmada herhangi bir yenilik yoktu. Bu durum, Transformer yazarlarından Şahzade'yi "şiddetli birikim"in gücüne hayran bıraktı.
Transformer'ın ortaya çıkmasından sonra, akademik dünyada temel algoritma yeniliklerinin hızı yavaşladı. Veri mühendisliği, hesaplama ölçeği, model mimarisi gibi mühendislik unsurları, AI yarışmasının anahtarı haline geldi. Belirli bir teknik yeterliliğe sahip olan her şirket, büyük bir model geliştirebilir.
AI uzmanı Andrew Ng, AI'nın elektrik ve internet gibi bir dizi genel teknoloji aracı haline geldiğini düşünüyor.
OpenAI hala LLM'nin lideri olsa da, sektördeki analistler GPT-4'ün avantajının esasen mühendislik çözümlerinden kaynaklandığını düşünüyor. Açık kaynak hale geldiğinde, rakipler bunu hızla kopyalayabilir. Yakın bir gelecekte, diğer büyük teknoloji şirketlerinin de GPT-4 ile karşılaştırılabilir büyük modeller geliştirebileceği öngörülüyor.
Zayıf Savunma Hattı
Artık "Yüz Model Savaşı" gerçek oldu. Rapor, bu yıl Temmuz itibarıyla Çin’deki büyük model sayısının 130'a ulaştığını ve bunun da Amerika'nın 114'ünü geçtiğini gösteriyor. Çeşitli mitolojik hikayeler, yerli teknoloji şirketleri için isimlendirmek için artık yeterli değil.
Çin ve ABD dışında, birçok gelişmiş ülke de "bir ülke bir model" ilkesini ilk aşamada gerçekleştirdi: Japonya, Birleşik Arap Emirlikleri, Hindistan, Güney Kore gibi ülkeler yerel büyük modellerini peş peşe tanıttı. Bu manzara, sanki internet balon dönemine geri dönülmüş gibi, "para yakmak" ana rekabet aracı haline geldi.
Transformer, büyük modelleri saf mühendislik problemlerine dönüştürüyor, sadece insan gücü ve kaynak varsa geliştirilebiliyor. Ancak giriş yapmak kolay, AI çağının devlerinden biri olmak ise çok zor.
Yukarıda bahsedilen "Hayvan Savaşı" tipik bir örnektir: Falcon, sıralamada Llama'yı geride bırakmasına rağmen, Meta üzerindeki etkisi sınırlıdır.
Şirketler, açık kaynaklı bilimsel sonuçlarıyla teknolojik refahı paylaşmanın yanı sıra, toplumsal zekayı da harekete geçirmeyi umuyor. Farklı alanlardan gelen kullanıcılar Llama'yı sürekli olarak geliştirdikçe, Meta bu sonuçları kendi ürünlerinde uygulayabilecektir.
Açık kaynak büyük modeller için, aktif geliştirici topluluğu esas rekabet avantajıdır.
Meta, 2015 yılında AI laboratuvarını kurduğunda açık kaynak politikasını belirlemişti. Zuckerberg, "toplum ilişkilerini iyi yönetme" konusunda derin bir bilgiye sahip. Ekim ayında, Meta, sosyal sorunları çözmek için Llama 2'yi kullanan geliştiricilere destek veren "AI versiyonu içerik oluşturucu teşvikleri" etkinliğini de başlattı.
Bugün, Meta'nın Llama serisi açık kaynak LLM'lerin mihenk taşı haline geldi. Ekim ayı başı itibarıyla, Hugging Face sıralamasının ilk 10'undaki 8 Llama 2 tabanlı geliştirilmiş olup, açık kaynak lisansını kullanan 1500'den fazla LLM bulunmaktadır.
Performansı artırmak elbette önemlidir, ancak şu anda çoğu LLM ile GPT-4 arasında hala belirgin bir fark var. En son AgentBench testinde, GPT-4 4.41 puanla zirveye yerleşirken, ikinci sıradaki Claude yalnızca 2.77 puan aldı, açık kaynak LLM'ler ise genellikle 1 puan civarında.
GPT-4'ün piyasaya sürülmesinin üzerinden altı aydan fazla geçti ve dünya genelindeki meslektaşları hala bunu yakalamakta zorlanıyor. Bunun nedeni, OpenAI'nin önde gelen bilim insanları ekibi ve uzun süreli LLM araştırma deneyimidir.
Görülebilir ki, büyük modelin temel yeteneği ekosistem inşasında yatıyor ( açık kaynak ) veya tamamen çıkarım yeteneği ( kapalı kaynak ), basit bir parametre yığınından ziyade.
Açık kaynak topluluğunun aktifliği ile, çeşitli LLM'lerin performansları benzer modellerin mimarileri ve veri setlerini kullanmaları nedeniyle benzeşebilir.
Daha somut bir sorun şudur: Midjourney dışında, görünüşe göre henüz hiçbir büyük model kâr elde edemedi.
Değerin Çapa Noktası
Bu yılın Ağustos ayında, "OpenAI'nın 2024 yılının sonunda iflas etme ihtimali" başlıklı bir makale dikkatleri üzerine çekti. Ana görüş ise: OpenAI'nin para harcama hızı çok hızlı.
Makale, ChatGPT'nin geliştirilmesinden bu yana OpenAI'nin zararlarının hızla arttığını, 2022'de yaklaşık 540 milyon dolar zarar ettiğini ve yalnızca Microsoft yatırımına güvenebildiğini belirtiyor.
Bu, büyük model sağlayıcılarının genel olarak karşılaştığı bir ikilemi yansıtıyor: maliyet ve gelir arasında ciddi bir dengesizlik.
Yüksek maliyetler, şu anda ana faydalanıcıların NVIDIA ve Broadcom gibi çip üreticileri olmasına neden oldu.
Tahminlere göre, Nvidia bu yılın ikinci çeyreğinde 300.000'den fazla H100 AI çipi sattı ve bu, 4.5 Boeing 747'ye eşdeğer bir ağırlık. Nvidia'nın gelirleri %854 artarak Wall Street'i şok etti. H100'ün ikinci el fiyatı 40.000-50.000 dolar seviyesine yükselirken, maliyeti sadece 3.000 dolardan fazla.
Hesaplama gücü maliyeti, sektörün gelişiminde bir engel haline geldi. Sequoia Capital'in hesaplamalarına göre, dünya genelindeki teknoloji şirketleri her yıl büyük model altyapılarına 200 milyar dolar harcayacak, ancak büyük modellerin yıllık geliri en fazla 75 milyar dolar; bu da en az 125 milyar dolarlık bir açığın olduğu anlamına geliyor.
Birkaç istisna dışında, çoğu yazılım şirketi büyük maliyetler harcadıktan sonra hala kârlılık modeli bulamadı. Hatta sektör liderleri Microsoft ve Adobe bile zorluklarla karşı karşıya.
Microsoft'un OpenAI ile birlikte geliştirdiği GitHub Copilot, aylık 10 dolar ücret almasına rağmen 20 dolar zarar ediliyor, yoğun kullanıcılar Microsoft'u aylık 80 dolar zarara sokabiliyor. Yeni çıkan Microsoft 365 Copilot'un fiyatı 30 dolar, zarar daha fazla olabilir.
Adobe, Firefly AI aracını tanıttıktan sonra, kullanıcıların aşırı kullanımını sınırlamak için hızla bir puan sistemi başlattı ve bu durum şirketin zarar etmesine yol açtı. Aylık tahsis edilen puanları aşan kullanıcıların hizmet hızı düşürülecektir.
Microsoft ve Adobe'nin net iş senaryoları ve çok sayıda ücretli kullanıcısı var. Ancak, parametre yığınlarıyla dolu olan büyük modellerin en büyük uygulama alanı hala sohbet.
OpenAI ve ChatGPT'nin ortaya çıkışı bu AI devrimini tetikledi, ancak mevcut aşamada büyük modellerin eğitiminin değeri sorgulanıyor. Homojen rekabetin artması ve açık kaynaklı modellerin çoğalmasıyla, yalnızca büyük model tedarikçilerinin alanı daha da daralabilir.
iPhone 4'ün başarısı 45nm üretim sürecindeki A4 işlemcide değil, "Bitkilerle Zombilere Karşı" ve "Öfkeli Kuşlar" oyunlarını oynayabilmesindedir.