الذكاء الاصطناعي والبلوكتشين融合: إعادة تشكيل قيمة سلسلة الصناعة والاتجاهات المستقبلية للتنمية

تطور صناعة الذكاء الاصطناعي وآفاق اندماجها مع البلوكتشين

حقق قطاع الذكاء الاصطناعي تقدمًا ملحوظًا مؤخرًا، ويُعتبر القوة الدافعة الرئيسية للثورة الصناعية الرابعة. أدى ظهور نماذج اللغة الكبيرة إلى تحسين كفاءة العمل في مختلف القطاعات بشكل ملحوظ، حيث اعتبرت شركة بوسطن الاستشارية أن GPT قد زادت من إنتاجية الولايات المتحدة بنحو 20%. في الوقت نفسه، اعتُبرت القدرة على التعميم التي تمتلكها النماذج الكبيرة نموذجًا جديدًا لتصميم البرمجيات، يختلف عن أسلوب الترميز الدقيق في الماضي، حيث أصبح تصميم البرمجيات الآن يعتمد بشكل أكبر على إطار النماذج الكبيرة القابلة للتعميم، مما يدعم مدخلات ومخرجات أكثر تنوعًا. لقد جلبت تقنيات التعلم العميق جولة جديدة من الازدهار لصناعة الذكاء الاصطناعي، وقد انتشرت هذه الحمى تدريجيًا إلى صناعة العملات المشفرة.

سيستكشف هذا التقرير تطور صناعة الذكاء الاصطناعي، وتصنيفات التقنية، بالإضافة إلى التأثير الذي أحدثته تقنية التعلم العميق على الصناعة. سنقوم بتحليل حالة واتجاهات سلسلة الصناعة من جانب العرض والطلب للـ GPU، والحوسبة السحابية، ومصادر البيانات، وأجهزة الحافة في مجال التعلم العميق. في الوقت نفسه، سنتناول جوهر العلاقة بين العملات المشفرة وصناعة الذكاء الاصطناعي، وسنقوم بترتيب هيكل سلسلة الصناعة المرتبطة بالعملات المشفرة.

تاريخ تطور صناعة الذكاء الاصطناعي

منذ انطلاق صناعة الذكاء الاصطناعي في الخمسينيات من القرن الماضي، طور الأكاديميون والصناعيون في فترات مختلفة ومن خلفيات علمية متنوعة عدة مدارس لتحقيق الذكاء الاصطناعي.

تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل رئيسي مصطلح "تعلم الآلة"، حيث تتمثل الفكرة الأساسية في السماح للآلات بتحسين أداء النظام من خلال تكرار التعلم من البيانات في مهام محددة. تشمل الخطوات الرئيسية إدخال البيانات في الخوارزمية، واستخدام البيانات لتدريب النموذج، واختبار نشر النموذج، وأخيرًا استخدام النموذج لإكمال مهام التنبؤ التلقائي.

توجد حاليًا ثلاثة تيارات رئيسية في تعلم الآلة، وهي الربطية والرمزية والسلوكية، والتي تحاكي نظام الأعصاب والتفكير والسلوك البشري على التوالي. من بينها، تحتل الربطية، التي代表ها الشبكات العصبية، الصدارة حاليًا وتعرف أيضًا بالتعلم العميق. تتضمن بنية الشبكة العصبية طبقة إدخال وطبقة إخراج والعديد من الطبقات المخفية، وعندما يكون عدد الطبقات وعدد الخلايا العصبية كافيين، يمكنها التكيف مع المهام العامة المعقدة. من خلال إدخال البيانات باستمرار وضبط معلمات الخلايا العصبية، ستصل الخلايا العصبية في النهاية إلى الحالة المثلى، وهذا هو أصل كلمة "عميق" - عدد كافٍ من الطبقات والخلايا العصبية.

تكنولوجيا التعلم العميق القائمة على الشبكات العصبية شهدت عدة تكرارات وتطورات، من الشبكات العصبية في أقصى مراحلها البدائية، إلى الشبكات العصبية التغذوية، RNN، CNN، GAN، وأخيرًا تطورت إلى النماذج الحديثة الكبيرة مثل GPT وغيرها التي تستخدم تقنية Transformer. تقنية Transformer هي اتجاه تطوري للشبكات العصبية، حيث أضيف محول ( Transformer )، لتحويل أنواع مختلفة من البيانات مثل الصوت والفيديو والصور ( إلى تمثيلات عددية مناسبة، ثم يتم إدخالها إلى الشبكة العصبية، مما يمكّن الشبكة العصبية من التكيف مع أي نوع من البيانات، وتحقيق معالجة متعددة الأنماط.

! [علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-7e025deb1fddcd5fa716b6f144701074.webp(

شهد تطور الذكاء الاصطناعي ثلاث موجات تكنولوجية:

وقعت الموجة الأولى في الستينيات من القرن العشرين، والتي أثارتها تقنيات الرمزية، وحلت مشاكل معالجة اللغة الطبيعية العامة والتفاعل بين الإنسان والآلة. في نفس الوقت، وُلِدت أنظمة الخبراء، مثل نظام DENDRAL للخبراء الكيميائيين الذي طوّرته وكالة الفضاء الأمريكية.

حدثت الموجة الثانية في التسعينيات من القرن العشرين، حيث تم اقتراح الشبكات البايزية والروبوتات السلوكية، مما يمثل ولادة السلوكية. في عام 1997، هزم IBM Deep Blue بطل الشطرنج كاسباروف، ويعتبر ذلك علامة فارقة في مجال الذكاء الاصطناعي.

بدأت الموجة الثالثة في عام 2006. تم تقديم مفهوم التعلم العميق، مع استخدام الشبكات العصبية الاصطناعية كهيكل، للتعلم التمثيلي للبيانات. ثم تطورت خوارزميات التعلم العميق باستمرار، من RNN وGAN إلى Transformer وStable Diffusion، مما شكل هذه الموجة التكنولوجية، وكانت أيضًا فترة ازدهار الاتصال.

خلال هذه الفترة، حدثت عدة أحداث بارزة:

  • في عام 2011، هزم نظام واتسون من IBM المتسابقين البشريين في برنامج الأسئلة والأجوبة "خطر".
  • في عام 2014، اقترح Goodfellow شبكة الخصومة التوليدية GAN).
  • في عام 2015، قدم هينتون وآخرون خوارزمية التعلم العميق في مجلة "Nature"، مما أثار ردود فعل هائلة. تم تأسيس OpenAI.
  • في عام 2016، تغلب AlphaGo على بطل العالم في لعبة Go لي شيشي.
  • في عام 2017، قدمت Google خوارزمية Transformer، وبدأت نماذج اللغة واسعة النطاق في الظهور.
  • في عام 2018 ، أصدرت OpenAI GPT ، وأصدرت DeepMind AlphaFold.
  • في عام 2019، أصدرت OpenAI GPT-2.
  • في عام 2020، أصدرت OpenAI GPT-3.
  • في عام 2023، تم إطلاق ChatGPT المعتمد على GPT-4، وسرعان ما وصل إلى مئة مليون مستخدم.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

سلسلة صناعة التعلم العميق

تستخدم النماذج اللغوية الكبيرة الحالية بشكل رئيسي طرق التعلم العميق المعتمدة على الشبكات العصبية. أطلقت النماذج الكبيرة التي تمثلها GPT جولة جديدة من الحماس في الذكاء الاصطناعي، مما أدى إلى تدفق كبير من اللاعبين إلى هذا المجال، وزيادة هائلة في الطلب على البيانات وقوة الحوسبة في السوق. ستتناول هذه الفقرة تركيبة سلسلة القيمة لخوارزميات التعلم العميق، بالإضافة إلى حالة السوق والعلاقة بين العرض والطلب والتطورات المستقبلية.

تدريب نماذج اللغة الكبيرة مثل GPT القائمة على تقنية Transformer ) LLMs ( ينقسم بشكل رئيسي إلى ثلاث خطوات:

  1. التدريب المسبق: إدخال كمية كبيرة من البيانات للبحث عن أفضل المعلمات للخلايا العصبية. هذه العملية تتطلب الكثير من قوة الحوسبة، وتحتاج إلى تكرار المحاولات مع معلمات مختلفة.

  2. ضبط دقيق: استخدام كمية صغيرة ولكن عالية الجودة من البيانات للتدريب، لتحسين جودة مخرجات النموذج.

  3. التعلم المعزز: إنشاء "نموذج مكافأة" لتقييم جودة ناتج النموذج الكبير، ومن خلال هذا النموذج يتم تعديل معلمات النموذج الكبير بشكل تلقائي. في بعض الأحيان، يكون من الضروري أيضًا المشاركة البشرية في التقييم.

باختصار، يتطلب التدريب المسبق كمية كبيرة من البيانات، ويستهلك أكبر قدر من قوة معالجة GPU؛ بينما يحتاج الضبط الدقيق إلى بيانات عالية الجودة لتحسين المعلمات؛ يستمر التعلم المعزز من خلال نموذج المكافأة في تكرار المعلمات لتحسين جودة المخرجات.

العوامل الرئيسية الثلاثة التي تؤثر على أداء النماذج الكبيرة هي: عدد المعلمات، حجم البيانات وجودتها، والقدرة الحاسوبية. هذه العوامل تحدد معًا جودة نتائج النماذج الكبيرة وقدرتها على التعميم. لنفترض أن عدد المعلمات هو p، وحجم البيانات هو n) محسوبًا بعدد التوكنات (، يمكن من خلال قاعدة الخبرة تقدير كمية الحساب المطلوبة، وبالتالي تقدير القدرة الحاسوبية ووقت التدريب المطلوب.

تُقاس قوة الحوسبة عادةً بوحدة Flops، والتي تمثل عملية حسابية عائمة واحدة. وفقًا للتجربة العملية، فإن تدريب نموذج كبير مرة واحدة يحتاج تقريبًا إلى 6np Flops. بينما عملية الاستدلال ) التي تنتظر إخراج النموذج للبيانات المدخلة تتطلب 2np Flops.

في البداية، كانت تدريبات الذكاء الاصطناعي تعتمد بشكل رئيسي على رقائق المعالج المركزي (CPU)، لكنها تدريجياً استبدلت برقائق المعالج الرسومي (GPU) مثل A100 و H100 من NVIDIA. تتفوق وحدات معالجة الرسوميات (GPU) بشكل كبير على وحدات المعالجة المركزية (CPU) من حيث كفاءة استهلاك الطاقة، حيث تقوم بإجراء العمليات العائمة بشكل أساسي من خلال وحدات Tensor Core. عادةً ما يتم قياس قدرة المعالجة للرقائق بوحدات Flops بدقة FP16/FP32.

خذ GPT-3 كمثال، حيث يحتوي على 175 مليار معلمة و 180 مليار توكن من البيانات بحجم حوالي 570GB(. يتطلب إجراء تدريب أولي 3.15*10^22 Flops، وهو ما يعادل 584 يومًا على شريحة Nvidia A100 SXM. نظرًا لأن عدد المعلمات في GPT-4 هو 10 أضعاف عدد GPT-3، وزاد حجم البيانات أيضًا 10 أضعاف، فقد يتطلب الأمر أكثر من 100 ضعف من قوة معالجة الرقائق.

في تدريب النماذج الكبيرة، يعتبر تخزين البيانات أيضًا تحديًا. الذاكرة الداخلية لوحدة معالجة الرسوميات عادة ما تكون صغيرة مثل A100 بسعة 80GB، ولا يمكنها استيعاب جميع البيانات ومعلمات النموذج. لذلك، يجب أن نأخذ في الاعتبار عرض النطاق الترددي للشرائح، أي سرعة نقل البيانات بين القرص الصلب والذاكرة. أثناء التدريب التعاوني باستخدام وحدات معالجة الرسوميات المتعددة، تكون سرعة نقل البيانات بين الشرائح أيضًا حاسمة.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

تشمل سلسلة صناعة التعلم العميق المراحل التالية:

  1. مزودات الأجهزة GPU: تحتل Nvidia حاليا الصدارة بشكل مطلق. تستخدم الأوساط الأكاديمية بشكل رئيسي وحدات معالجة الرسوميات للاستخدام التجاري ) مثل سلسلة RTX (، بينما تستخدم الصناعة بشكل رئيسي شرائح متخصصة مثل H100 و A100. كما أن Google لديها شرائح TPU التي طورتها داخليا.

  2. مزودو خدمات السحاب: يقدمون قوة معالجة مرنة وحلول تدريب مستضافة لشركات الذكاء الاصطناعي ذات الميزانية المحدودة. تنقسم بشكل رئيسي إلى ثلاث فئات: مزودو السحاب التقليديون ) مثل AWS وGoogle Cloud وAzure (، منصات قوة معالجة السحاب العمودية للذكاء الاصطناعي ) مثل CoreWeave وLambda (، ومزودو الخدمة على أساس الاستدلال ) مثل Together.ai وFireworks.ai (.

  3. مزودو بيانات التدريب: يقدمون كميات كبيرة من البيانات أو بيانات عالية الجودة للنماذج الكبيرة. الشركات مثل جوجل وريدت تتلقى اهتمامًا لامتلاكها كميات كبيرة من البيانات. هناك أيضًا شركات متخصصة في وضع العلامات على البيانات تقدم بيانات لنماذج محددة في مجالات معينة.

  4. مزودو قواعد البيانات: تُستخدم مهام استدلال تدريب الذكاء الاصطناعي بشكل أساسي "قاعدة بيانات المتجهات"، لتخزين وفهرسة بيانات المتجهات عالية الأبعاد بكفاءة. تشمل اللاعبين الرئيسيين Chroma و Zilliz و Pinecone و Weaviate وغيرها.

  5. الأجهزة الطرفية: توفير دعم التبريد وتزويد الطاقة لمجموعات GPU. تشمل إمدادات الطاقة ) مثل الطاقة الجيولوجية، والهيدروجين، والطاقة النووية ( ونظم التبريد ) مثل تقنية التبريد السائل (.

  6. التطبيقات: تتركز حاليًا تطبيقات الذكاء الاصطناعي بشكل رئيسي في مجالات البحث، والإجابة على الأسئلة، وما إلى ذلك، حيث إن معدلات الاحتفاظ والنشاط عمومًا أقل من تطبيقات الإنترنت التقليدية. تنقسم التطبيقات بشكل رئيسي إلى ثلاثة أنواع موجهة للمستهلكين المحترفين، والشركات، والمستهلكين العاديين.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

علاقة العملات المشفرة بالذكاء الاصطناعي

إن جوهر تقنية البلوكتشين هو اللامركزية وعدم الثقة. لقد أنشأ البيتكوين نظامًا لتحويل القيمة بدون ثقة، بينما حققت الإيثيريوم منصة عقود ذكية لامركزية وغير موثوقة. من الناحية الجوهرية، فإن شبكة البلوكتشين هي شبكة قيمة، حيث يتم تحويل كل معاملة بناءً على الرموز الأساسية.

في الإنترنت التقليدي، يتم التعبير عن القيمة من خلال مؤشرات مثل P/E في سعر السهم. بينما في شبكة البلوكتشين، تعكس الرموز الأصلية ) مثل ETH( القيمة المتعددة الأبعاد للشبكة، حيث يمكن الحصول على عائدات من الرهانات، كما يمكن أن تعمل كوسيط لتبادل القيمة، ووسيط لتخزين القيمة، وبضائع للاستهلاك في الأنشطة الشبكية.

تحدد اقتصاديات الرموز ) Tokenomics ( القيمة النسبية للرموز الأصلية ) المستخدمة في تسوية النظام البيئي (. على الرغم من أنه لا يمكن تسعير كل بعد بشكل منفصل، فإن سعر الرموز يعكس بشكل شامل قيمة متعددة الأبعاد. بمجرد منح الرموز للشبكة وجعلها متداولة، يمكن تحقيق قيمة تتجاوز بكثير القيمة التقليدية للأسهم.

سحر الاقتصاد الرمزي يكمن في قدرته على منح القيمة لأي وظيفة أو فكرة. إنه يعيد تعريف واكتشاف القيمة، وهو أمر حيوي لمختلف الصناعات بما في ذلك الذكاء الاصطناعي. في صناعة الذكاء الاصطناعي، يمكن أن يؤدي إصدار الرموز إلى إعادة تشكيل قيمة مختلف حلقات سلسلة الصناعة، وتحفيز المزيد من الأشخاص على التعمق في المجالات المتخصصة. يمكن أن توفر الرموز أيضاً قيمة إضافية للبنية التحتية، وتعزز تشكيل نموذج "البروتوكولات البدينة والتطبيقات النحيفة".

تتميز تقنية البلوكتشين بخصائص عدم القابلية للتلاعب وعدم الحاجة إلى الثقة، مما يمكن أن يجلب قيمة فعلية لصناعة الذكاء الاصطناعي. على سبيل المثال، يمكن السماح للنماذج باستخدام البيانات مع حماية خصوصية المستخدم؛ ويمكن توزيع قوة الحوسبة غير المستخدمة من وحدات معالجة الرسوميات (GPU) عبر الشبكة العالمية، واكتشاف القيمة المتبقية من جديد.

بشكل عام، يساعد اقتصاد الرموز في إعادة تشكيل واكتشاف القيمة، بينما يمكن أن تحل دفاتر الأستاذ اللامركزية مشكلة الثقة، مما يعيد تدفق القيمة على مستوى العالم. يجلب هذا المزيج إمكانيات جديدة لصناعة الذكاء الاصطناعي.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

نظرة عامة على سلسلة صناعة الذكاء الاصطناعي في صناعة العملات المشفرة

  1. جانب العرض لوحدة معالجة الرسوميات: تشمل المشاريع الرئيسية Render و Golem وغيرها. يعتبر Render مشروعًا أكثر نضجًا، حيث يستهدف بشكل أساسي مهام معالجة الفيديو غير المرتبطة بالنماذج الكبيرة. لا يخدم سوق قوة الحوسبة السحابية GPU فقط تدريب نماذج الذكاء الاصطناعي واستنتاجها، بل هو أيضًا مناسب للمهام التقليدية في المعالجة، مما يقلل من مخاطر الاعتماد على سوق واحد.

  2. عرض النطاق الترددي للأجهزة: تحاول مشاريع مثل Meson Network إنشاء شبكة عالمية لمشاركة النطاق الترددي. لكن مشاركة النطاق الترددي قد تكون طلبًا زائفًا لتدريب النماذج الكبيرة، لأن التأخير الناجم عن الموقع الجغرافي يمكن أن يؤثر بشكل كبير على كفاءة التدريب.

  3. البيانات: تشمل المشاريع الرئيسية بروتوكول EpiK، Synesis One، Masa وغيرها. مقارنة بشركات البيانات التقليدية، فإن مزودي البيانات على البلوكتشين لديهم ميزة في جمع البيانات، حيث يمكنهم تسعير البيانات الشخصية وتحفيز المستخدمين للمساهمة في البيانات من خلال الرموز.

  4. ZKML: تستخدم المشاريع مثل Zama و TruthGPT تقنية إثبات المعرفة الصفرية لتحقيق حساب الخصوصية والتدريب. بالإضافة إلى ذلك، فإن بعض مشاريع ZK العامة مثل Axiom و Risc Zero تستحق الاهتمام.

  5. تطبيقات الذكاء الاصطناعي: حالياً، التركيز الرئيسي هو على دمج تطبيقات البلوكتشين التقليدية مع الأتمتة والقدرة على التعميم. من المتوقع أن يستفيد وكيل الذكاء الاصطناعي ) مثل Fetch.AI ( كحلقة وصل بين المستخدمين ومجموعة متنوعة من التطبيقات.

  6. بلوكتشين الذكاء الاصطناعي: على سبيل المثال ، Tensor ،

GPT6.48%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 4
  • مشاركة
تعليق
0/400
mev_me_maybevip
· منذ 12 س
gpt تجاوز الحد، يجب أن يهدأ
شاهد النسخة الأصليةرد0
fork_in_the_roadvip
· منذ 12 س
已经看透一切的حمقى
شاهد النسخة الأصليةرد0
NotFinancialAdviservip
· منذ 12 س
GPT يلعب بذكاء، تداول العملات الرقمية هذه المرة لابد أن تصل إلى أعلى مستوى.
شاهد النسخة الأصليةرد0
ContractExplorervip
· منذ 13 س
aiالتصفية القسرية 其他跟蹆虫
شاهد النسخة الأصليةرد0
  • تثبيت