في الشهر الماضي، اندلعت "حرب الحيوانات" في عالم الذكاء الاصطناعي.
من جهة، هناك سلسلة نماذج Llama التي أطلقتها Meta، والتي تحظى بشعبية كبيرة بين المطورين بسبب خاصيتها المفتوحة المصدر. قامت شركة NEC اليابانية بسرعة بتطوير إصدار باللغة اليابانية من ChatGPT استنادًا إلى ورقة Llama والكود، مما حلّ مشكلة تقنية اليابان في مجال الذكاء الاصطناعي.
الطرف الآخر هو نموذج كبير يسمى Falcon. في مايو من هذا العام، تم إصدار Falcon-40B، الذي تجاوز Llama ليصبح في قمة "ترتيب نماذج اللغة الكبيرة مفتوحة المصدر". تم إعداد هذه القائمة من قبل مجتمع المصدر المفتوح Hugging Face، لتوفير معايير لتقييم قدرات LLM. بعد ذلك، قام Llama و Falcon بتحديث الترتيب بالتناوب.
في أوائل سبتمبر، أطلقت Falcon النسخة 180B، لتتصدر القائمة مرة أخرى. ومن المثير للاهتمام أن مطوري Falcon ليسوا شركة تقنية، بل هم معهد الابتكار التكنولوجي في أبوظبي. وقد صرح المسؤولون في الإمارات أنهم يشاركون في سباق الذكاء الاصطناعي لإحداث ثورة في المشهد الحالي.
اليوم، دخل مجال الذكاء الاصطناعي مرحلة تنافسية بين العديد من الشركات. أي دولة أو شركة تمتلك قوة معينة تحاول إنشاء نسخة محلية من ChatGPT. فقط في دول الخليج هناك العديد من اللاعبين، حيث قامت السعودية مؤخرًا بشراء أكثر من 3000 شريحة H100 للجامعات المحلية لتدريب LLM.
أحد المستثمرين أبدى دهشته قائلاً: "عندما كنت أستخف بابتكار نماذج الأعمال للإنترنت في ذلك الوقت، شعرت أنه لا توجد حواجز. لم أتوقع أن ريادة الأعمال في التكنولوجيا الصلبة والنماذج الكبيرة لا تزال في معركة المئات من النماذج..."
لماذا تطورت التكنولوجيا الصلبة التي كانت تعتبر صعبة في الأصل إلى وضع "نموذج واحد لكل دولة"؟
المحول: محرك ثورة الذكاء الاصطناعي
تتجه الشركات الناشئة الأمريكية، وعملاق التكنولوجيا الصينية، وأمراء النفط في الشرق الأوسط جميعًا نحو تطوير نماذج كبيرة، وذلك يعود إلى ورقة بحثية مشهورة: "Attention Is All You Need".
في عام 2017، نشر ثمانية علماء من جوجل خوارزمية Transformer في هذه الورقة. تعتبر هذه الورقة حالياً ثالث أكثر المقالات اقتباسًا في تاريخ الذكاء الاصطناعي، وقد أدت ظهور Transformer إلى هذه الموجة الحالية من الذكاء الاصطناعي.
تستند النماذج الكبيرة الحالية، بما في ذلك سلسلة GPT التي أحدثت ضجة عالمية، إلى أساس Transformer.
قبل ذلك، كانت "تعليم الآلة القراءة" تعتبر مشكلة معترف بها في الأوساط الأكاديمية. على عكس التعرف على الصور، يقوم البشر بدمج السياق لفهم القراءة. كانت الشبكات العصبية المبكرة تواجه صعوبة في معالجة النصوص الطويلة، وغالبًا ما تحدث مشاكل مثل ترجمة "开水间" إلى "open water room".
في عام 2014، استخدم عالم من جوجل يُدعى إيليا الشبكات العصبية التكرارية (RNN) لمعالجة اللغة الطبيعية، مما أدى إلى تحسين كبير في أداء ترجمة جوجل. تمنح الشبكات العصبية التكرارية القدرة على فهم السياق من خلال "التصميم التكراري".
ومع ذلك، فإن RNN تعاني من عيوب خطيرة: الحساب التسلسلي يؤدي إلى كفاءة منخفضة، ومن الصعب معالجة عدد كبير من المعلمات. منذ عام 2015، بدأ علماء من جوجل مثل شازيل في تطوير بدائل لـ RNN، وفي النهاية أطلقوا Transformer.
بالمقارنة مع RNN، يتمتع Transformer بإصلاحين رئيسيين: الأول هو استخدام ترميز المواقع لتحقيق الحساب المتوازي، مما يعزز بشكل كبير من كفاءة التدريب؛ والثاني هو تعزيز قدرة الفهم السياقي.
قام Transformer بحل العديد من المشكلات دفعة واحدة، وأصبح تدريجياً الحل السائد في مجال معالجة اللغة الطبيعية (NLP). لقد حول النماذج الكبيرة من بحث نظري إلى مشكلة هندسية بحتة.
في عام 2019، طورت OpenAI GPT-2 بناءً على Transformer. كرد فعل، أصدرت Google بسرعة Meena ذات الأداء الأقوى. تجاوزت Meena GPT-2 بشكل كبير من حيث المعلمات والقوة الحسابية، دون ابتكار في الخوارزمية الأساسية. مما جعل مؤلف Transformer شازيل يندهش من قوة "التكديس العنيف".
بعد ظهور Transformer، تباطأت سرعة الابتكار في الخوارزميات الأساسية في الأوساط الأكاديمية. أصبحت عناصر الهندسة مثل هندسة البيانات، وحجم القوة الحاسوبية، وبنية النموذج، عوامل رئيسية في منافسات الذكاء الاصطناعي. أي شركة تمتلك مستوى معين من القوة التقنية يمكنها تطوير نموذج كبير.
يعتقد خبير الذكاء الاصطناعي وانغ إن دا أن الذكاء الاصطناعي قد أصبح أداة تقنية عامة مشابهة للكهرباء والإنترنت.
على الرغم من أن OpenAI لا تزال رائدة في مجال LLM، إلا أن التحليلات في الصناعة تشير إلى أن ميزات GPT-4 تأتي أساسًا من الحلول الهندسية. بمجرد أن يتم فتح المصدر، يمكن للمنافسين نسخها بسرعة. من المتوقع أنه في المستقبل القريب، ستتمكن شركات التكنولوجيا الكبرى الأخرى من إنشاء نماذج كبيرة تتمتع بأداء مماثل لـ GPT-4.
خندق ضعيف
الآن، أصبحت "معركة النماذج الكبيرة" واقعًا. تظهر التقارير أنه حتى يوليو من هذا العام، بلغ عدد النماذج الكبيرة في الصين 130، متجاوزة الولايات المتحدة التي لديها 114 نموذجًا. لم تعد الأساطير والحكايات كافية لتسمية الشركات التكنولوجية المحلية.
بخلاف الصين والولايات المتحدة، حققت العديد من الدول المتقدمة أيضًا "نموذج دولة واحدة" في مرحلة مبكرة: حيث أطلقت اليابان، والإمارات العربية المتحدة، والهند، وكوريا الجنوبية نماذج كبيرة محلية. يبدو أن هذا المشهد يعود بنا إلى عصر فقاعة الإنترنت، حيث أصبح "حرق الأموال" وسيلة المنافسة الرئيسية.
تجعل Transformer النماذج الكبيرة مسألة هندسية بحتة، طالما أن هناك موارد بشرية ومادية، يمكن تطويرها. لكن من السهل الدخول إلى السوق، لكن من الصعب أن تصبح عملاقًا في عصر الذكاء الاصطناعي.
تم ذكر "حرب الحيوانات" في النص السابق كحالة نموذجية: على الرغم من أن فالكون يتفوق على لاما في الترتيب، إلا أن تأثيره على ميتا محدود.
تعد نتائج البحث العلمي المفتوحة المصدر للشركات بمثابة مشاركة فوائد التكنولوجيا، كما تأمل في تحفيز الذكاء الاجتماعي. مع استمرار استخدام مجالات مختلفة لتحسين Llama، يمكن لشركة ميتا تطبيق النتائج على منتجاتها الخاصة.
بالنسبة لنموذج المصدر المفتوح الكبير، فإن مجتمع المطورين النشط هو القوة التنافسية الأساسية.
أعلنت ميتا عن سياستها في المصادر المفتوحة منذ تأسيسها لمختبر الذكاء الاصطناعي في عام 2015. يعرف زوكربيرج جيدًا كيفية "تحسين العلاقات مع الجمهور". في أكتوبر، أطلقت ميتا أيضًا فعالية "تحفيز المبدعين باستخدام الذكاء الاصطناعي"، حيث تمول المطورين الذين يستخدمون لاما 2 لحل المشكلات الاجتماعية.
اليوم، أصبحت سلسلة Llama من Meta معيارًا للـ LLM مفتوح المصدر. حتى أوائل أكتوبر، كان هناك 8 من بين أفضل 10 على قائمة Hugging Face مبنية على Llama 2، وتم استخدام أكثر من 1500 LLM تستند إلى بروتوكولها المفتوح.
من المؤكد أن تحسين الأداء مهم، لكن لا يزال هناك فجوة واضحة بين معظم LLM و GPT-4. في أحدث اختبار AgentBench، حصل GPT-4 على 4.41 نقطة ليحتل المركز الأول، بينما حصلت Claude على 2.77 نقطة، وكانت معظم LLM المفتوحة المصدر حوالي نقطة واحدة.
لقد مضى أكثر من نصف عام على إصدار GPT-4، ولا يزال الزملاء في جميع أنحاء العالم يجدون صعوبة في اللحاق به. وهذا يعود إلى فريق العلماء المتميز في OpenAI وخبرة الأبحاث طويلة الأمد في LLM.
من الواضح أن القدرة الأساسية للنموذج الكبير تكمن في بناء النظام البيئي ( مفتوح المصدر ) أو القدرة على الاستنتاج البحت ( مغلق المصدر )، وليس مجرد تراكم بسيط للمعلمات.
مع ازدهار المجتمع المفتوح المصدر، قد تتقارب أداء نماذج اللغة الكبيرة (LLM) حيث يستخدم الجميع هياكل نماذج ومجموعات بيانات مشابهة.
المشكلة الأكثر وضوحًا هي: بخلاف Midjourney، يبدو أنه لا يوجد أي نموذج كبير آخر يمكنه تحقيق الربح.
نقطة مرجعية للقيمة
في أغسطس من هذا العام، أثار مقال بعنوان "من المحتمل أن تفلس OpenAI بحلول نهاية عام 2024" اهتمامًا كبيرًا. النقطة الرئيسية هي: OpenAI تحرق النقود بسرعة كبيرة.
تشير المقالة إلى أنه منذ تطوير ChatGPT، توسعت خسائر OpenAI بسرعة، حيث بلغت خسائرها حوالي 540 مليون دولار في عام 2022، ولم يكن أمامها سوى الاعتماد على استثمارات مايكروسوفت.
هذا يعكس المأزق الذي يواجهه مقدمو النماذج الكبيرة بشكل عام: انعدام التوازن الشديد بين التكاليف والإيرادات.
تكاليف مرتفعة أدت إلى أن المستفيدين الرئيسيين في الوقت الحالي هم شركات الرقائق مثل إنفيديا وبروادكوم.
وُقِّع تقدير أن إنفيديا قد باعت أكثر من 300,000 شريحة H100 AI في الربع الثاني من هذا العام، وهو ما يعادل وزن 4.5 طائرات بوينغ 747. ارتفعت أرباح إنفيديا بنسبة 854%، مما صدم وول ستريت. وقد ارتفعت أسعار بيع H100 المستعملة إلى 40,000-50,000 دولار، بينما كانت تكلفتها حوالي 3000 دولار.
أصبح تكلفة القدرة الحاسوبية عائقًا أمام تطوير الصناعة. حسب تقديرات شركة سيكويا كابيتال: ستنفق الشركات التكنولوجية العالمية 200 مليار دولار سنويًا لبناء بنية تحتية للنماذج الكبيرة، لكن الإيرادات السنوية للنماذج الكبيرة تصل إلى 75 مليار دولار كحد أقصى، مما يؤدي إلى فجوة لا تقل عن 125 مليار دولار.
باستثناء بعض الحالات القليلة، لا تزال معظم شركات البرمجيات غير قادرة على العثور على نموذج مربح بعد تكبد تكاليف ضخمة. حتى قادة الصناعة مثل مايكروسوفت وأدوبي يواجهون تحديات.
تعاونت مايكروسوفت مع OpenAI لتطوير GitHub Copilot، الذي يكلف 10 دولارات شهريًا ولكنه يتطلب دعمًا بقيمة 20 دولارًا، مما يتسبب في خسارة مايكروسوفت 80 دولارًا شهريًا من المستخدمين الثقيلين. تم طرح Microsoft 365 Copilot بسعر 30 دولارًا، وقد تكون الخسائر أكبر.
أطلقت أدوبي أداة Firefly AI بسرعة نظام نقاط بعد ذلك، مما يحد من الاستخدام المفرط من قبل المستخدمين الذي يؤدي إلى خسائر الشركة. بعد تجاوز النقاط المخصصة شهريًا، ستقوم أدوبي بتقليل سرعة الخدمة.
مايكروسوفت وأدوبي لديهما سيناريوهات عمل واضحة وعدد كبير من المستخدمين المدفوعين. بينما لا يزال السيناريو الرئيسي لاستخدام معظم النماذج الكبيرة المكدسة بالمعلمات هو الدردشة.
أدى ظهور OpenAI و ChatGPT إلى ثورة الذكاء الاصطناعي، لكن قيمة تدريب النماذج الكبيرة في المرحلة الحالية موضع شك. مع تزايد المنافسة المتجانسة وزيادة عدد النماذج مفتوحة المصدر، قد يتم تقليص مساحة مزودي النماذج الكبيرة بشكل أكبر.
نجاح iPhone 4 لا يكمن في معالج A4 بتقنية 45 نانومتر، بل في قدرته على تشغيل "植物大战僵尸" و"愤怒的小鸟".
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 7
أعجبني
7
2
مشاركة
تعليق
0/400
BTCRetirementFund
· منذ 16 س
مجموعة من الذكاء الاصطناعي تتقاتل ويبدو أنها مثيرة للاهتمام
تسارع المنافسة في نماذج الذكاء الاصطناعي الكبيرة: انخفاض الحواجز التقنية وظهور مشكلات تجارية
نموذج AI الكبير: ثورة ناتجة عن مشكلة هندسية
في الشهر الماضي، اندلعت "حرب الحيوانات" في عالم الذكاء الاصطناعي.
من جهة، هناك سلسلة نماذج Llama التي أطلقتها Meta، والتي تحظى بشعبية كبيرة بين المطورين بسبب خاصيتها المفتوحة المصدر. قامت شركة NEC اليابانية بسرعة بتطوير إصدار باللغة اليابانية من ChatGPT استنادًا إلى ورقة Llama والكود، مما حلّ مشكلة تقنية اليابان في مجال الذكاء الاصطناعي.
الطرف الآخر هو نموذج كبير يسمى Falcon. في مايو من هذا العام، تم إصدار Falcon-40B، الذي تجاوز Llama ليصبح في قمة "ترتيب نماذج اللغة الكبيرة مفتوحة المصدر". تم إعداد هذه القائمة من قبل مجتمع المصدر المفتوح Hugging Face، لتوفير معايير لتقييم قدرات LLM. بعد ذلك، قام Llama و Falcon بتحديث الترتيب بالتناوب.
في أوائل سبتمبر، أطلقت Falcon النسخة 180B، لتتصدر القائمة مرة أخرى. ومن المثير للاهتمام أن مطوري Falcon ليسوا شركة تقنية، بل هم معهد الابتكار التكنولوجي في أبوظبي. وقد صرح المسؤولون في الإمارات أنهم يشاركون في سباق الذكاء الاصطناعي لإحداث ثورة في المشهد الحالي.
اليوم، دخل مجال الذكاء الاصطناعي مرحلة تنافسية بين العديد من الشركات. أي دولة أو شركة تمتلك قوة معينة تحاول إنشاء نسخة محلية من ChatGPT. فقط في دول الخليج هناك العديد من اللاعبين، حيث قامت السعودية مؤخرًا بشراء أكثر من 3000 شريحة H100 للجامعات المحلية لتدريب LLM.
أحد المستثمرين أبدى دهشته قائلاً: "عندما كنت أستخف بابتكار نماذج الأعمال للإنترنت في ذلك الوقت، شعرت أنه لا توجد حواجز. لم أتوقع أن ريادة الأعمال في التكنولوجيا الصلبة والنماذج الكبيرة لا تزال في معركة المئات من النماذج..."
لماذا تطورت التكنولوجيا الصلبة التي كانت تعتبر صعبة في الأصل إلى وضع "نموذج واحد لكل دولة"؟
المحول: محرك ثورة الذكاء الاصطناعي
تتجه الشركات الناشئة الأمريكية، وعملاق التكنولوجيا الصينية، وأمراء النفط في الشرق الأوسط جميعًا نحو تطوير نماذج كبيرة، وذلك يعود إلى ورقة بحثية مشهورة: "Attention Is All You Need".
في عام 2017، نشر ثمانية علماء من جوجل خوارزمية Transformer في هذه الورقة. تعتبر هذه الورقة حالياً ثالث أكثر المقالات اقتباسًا في تاريخ الذكاء الاصطناعي، وقد أدت ظهور Transformer إلى هذه الموجة الحالية من الذكاء الاصطناعي.
تستند النماذج الكبيرة الحالية، بما في ذلك سلسلة GPT التي أحدثت ضجة عالمية، إلى أساس Transformer.
قبل ذلك، كانت "تعليم الآلة القراءة" تعتبر مشكلة معترف بها في الأوساط الأكاديمية. على عكس التعرف على الصور، يقوم البشر بدمج السياق لفهم القراءة. كانت الشبكات العصبية المبكرة تواجه صعوبة في معالجة النصوص الطويلة، وغالبًا ما تحدث مشاكل مثل ترجمة "开水间" إلى "open water room".
في عام 2014، استخدم عالم من جوجل يُدعى إيليا الشبكات العصبية التكرارية (RNN) لمعالجة اللغة الطبيعية، مما أدى إلى تحسين كبير في أداء ترجمة جوجل. تمنح الشبكات العصبية التكرارية القدرة على فهم السياق من خلال "التصميم التكراري".
ومع ذلك، فإن RNN تعاني من عيوب خطيرة: الحساب التسلسلي يؤدي إلى كفاءة منخفضة، ومن الصعب معالجة عدد كبير من المعلمات. منذ عام 2015، بدأ علماء من جوجل مثل شازيل في تطوير بدائل لـ RNN، وفي النهاية أطلقوا Transformer.
بالمقارنة مع RNN، يتمتع Transformer بإصلاحين رئيسيين: الأول هو استخدام ترميز المواقع لتحقيق الحساب المتوازي، مما يعزز بشكل كبير من كفاءة التدريب؛ والثاني هو تعزيز قدرة الفهم السياقي.
قام Transformer بحل العديد من المشكلات دفعة واحدة، وأصبح تدريجياً الحل السائد في مجال معالجة اللغة الطبيعية (NLP). لقد حول النماذج الكبيرة من بحث نظري إلى مشكلة هندسية بحتة.
في عام 2019، طورت OpenAI GPT-2 بناءً على Transformer. كرد فعل، أصدرت Google بسرعة Meena ذات الأداء الأقوى. تجاوزت Meena GPT-2 بشكل كبير من حيث المعلمات والقوة الحسابية، دون ابتكار في الخوارزمية الأساسية. مما جعل مؤلف Transformer شازيل يندهش من قوة "التكديس العنيف".
بعد ظهور Transformer، تباطأت سرعة الابتكار في الخوارزميات الأساسية في الأوساط الأكاديمية. أصبحت عناصر الهندسة مثل هندسة البيانات، وحجم القوة الحاسوبية، وبنية النموذج، عوامل رئيسية في منافسات الذكاء الاصطناعي. أي شركة تمتلك مستوى معين من القوة التقنية يمكنها تطوير نموذج كبير.
يعتقد خبير الذكاء الاصطناعي وانغ إن دا أن الذكاء الاصطناعي قد أصبح أداة تقنية عامة مشابهة للكهرباء والإنترنت.
على الرغم من أن OpenAI لا تزال رائدة في مجال LLM، إلا أن التحليلات في الصناعة تشير إلى أن ميزات GPT-4 تأتي أساسًا من الحلول الهندسية. بمجرد أن يتم فتح المصدر، يمكن للمنافسين نسخها بسرعة. من المتوقع أنه في المستقبل القريب، ستتمكن شركات التكنولوجيا الكبرى الأخرى من إنشاء نماذج كبيرة تتمتع بأداء مماثل لـ GPT-4.
خندق ضعيف
الآن، أصبحت "معركة النماذج الكبيرة" واقعًا. تظهر التقارير أنه حتى يوليو من هذا العام، بلغ عدد النماذج الكبيرة في الصين 130، متجاوزة الولايات المتحدة التي لديها 114 نموذجًا. لم تعد الأساطير والحكايات كافية لتسمية الشركات التكنولوجية المحلية.
بخلاف الصين والولايات المتحدة، حققت العديد من الدول المتقدمة أيضًا "نموذج دولة واحدة" في مرحلة مبكرة: حيث أطلقت اليابان، والإمارات العربية المتحدة، والهند، وكوريا الجنوبية نماذج كبيرة محلية. يبدو أن هذا المشهد يعود بنا إلى عصر فقاعة الإنترنت، حيث أصبح "حرق الأموال" وسيلة المنافسة الرئيسية.
تجعل Transformer النماذج الكبيرة مسألة هندسية بحتة، طالما أن هناك موارد بشرية ومادية، يمكن تطويرها. لكن من السهل الدخول إلى السوق، لكن من الصعب أن تصبح عملاقًا في عصر الذكاء الاصطناعي.
تم ذكر "حرب الحيوانات" في النص السابق كحالة نموذجية: على الرغم من أن فالكون يتفوق على لاما في الترتيب، إلا أن تأثيره على ميتا محدود.
تعد نتائج البحث العلمي المفتوحة المصدر للشركات بمثابة مشاركة فوائد التكنولوجيا، كما تأمل في تحفيز الذكاء الاجتماعي. مع استمرار استخدام مجالات مختلفة لتحسين Llama، يمكن لشركة ميتا تطبيق النتائج على منتجاتها الخاصة.
بالنسبة لنموذج المصدر المفتوح الكبير، فإن مجتمع المطورين النشط هو القوة التنافسية الأساسية.
أعلنت ميتا عن سياستها في المصادر المفتوحة منذ تأسيسها لمختبر الذكاء الاصطناعي في عام 2015. يعرف زوكربيرج جيدًا كيفية "تحسين العلاقات مع الجمهور". في أكتوبر، أطلقت ميتا أيضًا فعالية "تحفيز المبدعين باستخدام الذكاء الاصطناعي"، حيث تمول المطورين الذين يستخدمون لاما 2 لحل المشكلات الاجتماعية.
اليوم، أصبحت سلسلة Llama من Meta معيارًا للـ LLM مفتوح المصدر. حتى أوائل أكتوبر، كان هناك 8 من بين أفضل 10 على قائمة Hugging Face مبنية على Llama 2، وتم استخدام أكثر من 1500 LLM تستند إلى بروتوكولها المفتوح.
من المؤكد أن تحسين الأداء مهم، لكن لا يزال هناك فجوة واضحة بين معظم LLM و GPT-4. في أحدث اختبار AgentBench، حصل GPT-4 على 4.41 نقطة ليحتل المركز الأول، بينما حصلت Claude على 2.77 نقطة، وكانت معظم LLM المفتوحة المصدر حوالي نقطة واحدة.
لقد مضى أكثر من نصف عام على إصدار GPT-4، ولا يزال الزملاء في جميع أنحاء العالم يجدون صعوبة في اللحاق به. وهذا يعود إلى فريق العلماء المتميز في OpenAI وخبرة الأبحاث طويلة الأمد في LLM.
من الواضح أن القدرة الأساسية للنموذج الكبير تكمن في بناء النظام البيئي ( مفتوح المصدر ) أو القدرة على الاستنتاج البحت ( مغلق المصدر )، وليس مجرد تراكم بسيط للمعلمات.
مع ازدهار المجتمع المفتوح المصدر، قد تتقارب أداء نماذج اللغة الكبيرة (LLM) حيث يستخدم الجميع هياكل نماذج ومجموعات بيانات مشابهة.
المشكلة الأكثر وضوحًا هي: بخلاف Midjourney، يبدو أنه لا يوجد أي نموذج كبير آخر يمكنه تحقيق الربح.
نقطة مرجعية للقيمة
في أغسطس من هذا العام، أثار مقال بعنوان "من المحتمل أن تفلس OpenAI بحلول نهاية عام 2024" اهتمامًا كبيرًا. النقطة الرئيسية هي: OpenAI تحرق النقود بسرعة كبيرة.
تشير المقالة إلى أنه منذ تطوير ChatGPT، توسعت خسائر OpenAI بسرعة، حيث بلغت خسائرها حوالي 540 مليون دولار في عام 2022، ولم يكن أمامها سوى الاعتماد على استثمارات مايكروسوفت.
هذا يعكس المأزق الذي يواجهه مقدمو النماذج الكبيرة بشكل عام: انعدام التوازن الشديد بين التكاليف والإيرادات.
تكاليف مرتفعة أدت إلى أن المستفيدين الرئيسيين في الوقت الحالي هم شركات الرقائق مثل إنفيديا وبروادكوم.
وُقِّع تقدير أن إنفيديا قد باعت أكثر من 300,000 شريحة H100 AI في الربع الثاني من هذا العام، وهو ما يعادل وزن 4.5 طائرات بوينغ 747. ارتفعت أرباح إنفيديا بنسبة 854%، مما صدم وول ستريت. وقد ارتفعت أسعار بيع H100 المستعملة إلى 40,000-50,000 دولار، بينما كانت تكلفتها حوالي 3000 دولار.
أصبح تكلفة القدرة الحاسوبية عائقًا أمام تطوير الصناعة. حسب تقديرات شركة سيكويا كابيتال: ستنفق الشركات التكنولوجية العالمية 200 مليار دولار سنويًا لبناء بنية تحتية للنماذج الكبيرة، لكن الإيرادات السنوية للنماذج الكبيرة تصل إلى 75 مليار دولار كحد أقصى، مما يؤدي إلى فجوة لا تقل عن 125 مليار دولار.
باستثناء بعض الحالات القليلة، لا تزال معظم شركات البرمجيات غير قادرة على العثور على نموذج مربح بعد تكبد تكاليف ضخمة. حتى قادة الصناعة مثل مايكروسوفت وأدوبي يواجهون تحديات.
تعاونت مايكروسوفت مع OpenAI لتطوير GitHub Copilot، الذي يكلف 10 دولارات شهريًا ولكنه يتطلب دعمًا بقيمة 20 دولارًا، مما يتسبب في خسارة مايكروسوفت 80 دولارًا شهريًا من المستخدمين الثقيلين. تم طرح Microsoft 365 Copilot بسعر 30 دولارًا، وقد تكون الخسائر أكبر.
أطلقت أدوبي أداة Firefly AI بسرعة نظام نقاط بعد ذلك، مما يحد من الاستخدام المفرط من قبل المستخدمين الذي يؤدي إلى خسائر الشركة. بعد تجاوز النقاط المخصصة شهريًا، ستقوم أدوبي بتقليل سرعة الخدمة.
مايكروسوفت وأدوبي لديهما سيناريوهات عمل واضحة وعدد كبير من المستخدمين المدفوعين. بينما لا يزال السيناريو الرئيسي لاستخدام معظم النماذج الكبيرة المكدسة بالمعلمات هو الدردشة.
أدى ظهور OpenAI و ChatGPT إلى ثورة الذكاء الاصطناعي، لكن قيمة تدريب النماذج الكبيرة في المرحلة الحالية موضع شك. مع تزايد المنافسة المتجانسة وزيادة عدد النماذج مفتوحة المصدر، قد يتم تقليص مساحة مزودي النماذج الكبيرة بشكل أكبر.
نجاح iPhone 4 لا يكمن في معالج A4 بتقنية 45 نانومتر، بل في قدرته على تشغيل "植物大战僵尸" و"愤怒的小鸟".