تقوم Trusta.AI ببناء بنية تحتية للهوية والثقة في Web3 تتجاوز عصر الإنسان والآلة

Trusta.AI: جسر الثقة عبر عصر الإنسان والآلة

المقدمة

مع التطور السريع للبنية التحتية للذكاء الاصطناعي، وظهور أطر التعاون بين العوامل المتعددة، أصبح الوكلاء المعتمدون على الذكاء الاصطناعي بسرعة القوة الرئيسية للتفاعل في Web3. من المتوقع أن تقوم هذه الوكلاء الذكية القادرة على اتخاذ القرارات المستقلة، خلال العامين إلى الثلاثة القادمة، بتبني واسع النطاق للمعاملات والتفاعلات على السلسلة، وقد تحل محل 80% من سلوكيات البشر على السلسلة، لتصبح "المستخدمين" الحقيقيين على السلسلة.

وكيل الذكاء الاصطناعي يعيد تشكيل النظام على السلسلة، ويعزز تدفق الأموال، وحتى يوجه تصويت الحوكمة واتجاهات السوق. وهذا يدل على أن نظام Web3 البيئي يتطور من "مشاركة الإنسان" إلى "التعايش بين الإنسان والآلة" كنموذج جديد.

ومع ذلك، فإن الارتفاع السريع لوكلاء الذكاء الاصطناعي قد جلب أيضًا تحديات غير مسبوقة: كيف يمكن التعرف على هويات هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن تقييم موثوقية سلوكهم؟ في شبكة لامركزية وغير مرخصة، كيف يمكن ضمان عدم إساءة استخدام هؤلاء الوكلاء أو التلاعب بهم أو استخدامهم للهجوم؟

لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو القضية المركزية في المرحلة التالية من تطور الويب 3. إن تصميم التعرف على الهوية وآلية السمعة وإطار الثقة، سيتحدد ما إذا كان بإمكان وكيل الذكاء الاصطناعي تحقيق التعاون السلس حقًا مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.

Trusta.AI :تجاوز فجوة الثقة بين الإنسان والآلة

تحليل المشروع

مقدمة المشروع

تسعى Trusta.AI لبناء بنية تحتية لهوية وسمعة Web3 من خلال الذكاء الاصطناعي.

أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدمي Web3 - نظام تصنيف السمعة MEDIA، وبنت أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. تقدم خدمات تحليل البيانات على السلسلة والمصادقة الحقيقية للعديد من سلاسل الكتل الرائدة، والبورصات، والبروتوكولات الرائدة. تم إنجاز أكثر من 2.5 مليون مصادقة على السلسلة عبر عدة سلاسل رئيسية، لتصبح أكبر بروتوكول هوية في الصناعة.

تقوم Trusta بتوسيع نطاقها من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، لتحقيق خدمات مالية على السلسلة للوكيل الذكي وإنشاء هوية وحماية الهوية وآلية قياس الهوية، مما يبني أساسًا موثوقًا للثقة في عصر الذكاء الاصطناعي.

بنية تحتية موثوقة - وكيل الذكاء الاصطناعي DID

في بيئة Web3 المستقبلية، سيلعب وكلاء الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم إجراء التفاعلات والمعاملات على السلسلة، بالإضافة إلى تنفيذ عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكلاء الذكاء الاصطناعي الحقيقيين والعمليات التي تتدخل فيها البشر تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هؤلاء الوكلاء يصبحون عرضة للتلاعب أو الاحتيال أو الإساءة. وهذا هو السبب في أن الخصائص المتعددة لوكلاء الذكاء الاصطناعي في المجالات الاجتماعية والمالية والحوكمة يجب أن تُبنى على أساس قوي من التحقق من الهوية.

تزداد تطبيقات وكيل الذكاء الاصطناعي تنوعًا، حيث تشمل التفاعل الاجتماعي، وإدارة المالية، واتخاذ القرارات الحكومية، وغيرها من المجالات، مما يعزز من مستوى استقلاليتها وذكائها. ولهذا السبب، من المهم للغاية ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID). إن عدم وجود تحقق فعال من الهوية قد يؤدي إلى انتحال أو تحكم في وكيل الذكاء الاصطناعي، مما يتسبب في انهيار الثقة ومخاطر أمنية.

في نظام Web3 البيئي المدفوع بالكامل بالوكالات الذكية في المستقبل، فإن مصادقة الهوية ليست فقط حجر الزاوية لضمان الأمان، بل هي أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأسره.

كونها رائدة في هذا المجال، قامت Trusta.AI بفضل قوتها التقنية الرائدة ونظام سمعتها الصارم، بإنشاء آلية اعتماد DID لوكلاء الذكاء الاصطناعي بشكل شامل، مما يوفر ضماناً قوياً للتشغيل الموثوق للوكلاء الذكيين، ويقي من المخاطر المحتملة، ويعزز التنمية المستدامة للاقتصاد الذكي في Web3.

Trusta.AI :تجاوز الفجوة في الثقة بين الإنسان والآلة

نظرة عامة على المشروع

حالة التمويل

يناير 2023: إتمام جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المشاركين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.

يونيو 2025: إتمام جولة تمويل جديدة، تشمل المستثمرين ConsenSys و Starknet و GSR و UFLY Labs وغيرها.

حالة الفريق

بييت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، ورئيس المنتجات في أنتي للأمن التكنولوجي، ومدير عام منصة الهوية الرقمية العالمية زولوز.

سيمون: المؤسس المشارك ورئيس قسم التكنولوجيا، سابقاً رئيس مختبر الذكاء الاصطناعي للأمن في مجموعة أنتي، لديه خمسة عشر عاماً من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في إدارة الأمن والمخاطر.

تمتلك الفريق خبرة عميقة في الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهندسة أنظمة الدفع وآليات التحقق من الهوية، حيث تكرست على مدى طويل لتطبيق البيانات الضخمة والخوارزميات الذكية بشكل عميق في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول ذات التردد العالي، مما يوفر قدرات هندسية قوية وقدرة على تنفيذ حلول مبتكرة.

Trusta.AI : جسر الفجوة بين الإنسان والآلة في عصر الثقة

الهيكل الفني

تحليل تقني

إنشاء الهوية - DID + TEE

من خلال مكونات إضافية مخصصة، يحصل كل وكيل AI على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بأمان في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الأساسية وعملية الحساب بالكامل، وتظل العمليات الحساسة خاصة دائمًا، مما يمنع الأطراف الخارجية من التطفل على تفاصيل التشغيل الداخلية، مما يبني حاجزًا قويًا لأمان معلومات وكيل AI.

بالنسبة للوكلاء الذين تم إنشاؤهم قبل دمج المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن للوكلاء الذين تم دمج المكون الإضافي حديثًا الحصول مباشرة على "شهادة الهوية" الصادرة عن DID، وبالتالي إنشاء نظام هوية لوكيل الذكاء الاصطناعي يكون قابلاً للتحكم الذاتي، وذو مصداقية وغير قابل للتغيير.

قياس الهوية - إطار SIGMA الرائد

تتمسك فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.

بنى فريق Trusta وأثبت فعالية نموذج MEDIA Score في سياق "إثبات الإنسانية" في وقت مبكر. يقوم هذا النموذج بتكميم الصور الشخصية للمستخدمين على السلسلة من خمسة أبعاد، وهي: المبلغ التفاعلي (Monetary)، مستوى المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).

MEDIA Score هو نظام تقييم قيمة المستخدمين على السلسلة بشكل عادل وموضوعي وقابل للقياس. بفضل أبعاده الشاملة وطرقه الدقيقة، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة كمعيار مرجعي هام لتصفية مؤهلات الاستثمار. إنه لا يركز فقط على قيمة التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، الخصائص الهوية وعمر الحساب، مما يساعد المشاريع على تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطته واعترافه الواسع في الصناعة.

استنادًا إلى النجاح في بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وتحسين تجربة MEDIA Score لتتناسب مع سيناريوهات الوكيل الذكي، وأسست نظام تقييم Sigma الذي يتماشى بشكل أفضل مع منطق سلوك الوكلاء الذكيين.

  • التخصصية: المعرفة المهنية ودرجة الاحتراف للوكيل.
  • التأثير: تأثير الوكالة الاجتماعي والرقمي.
  • المشاركة: اتساق وموثوقية التفاعلات على السلسلة وخارجها.
  • العملة النقدية: الصحة المالية واستقرار نظام الرموز المساعدة.
  • معدل الاعتماد: تكرار وكفاءة استخدام الوكلاء الذكاء الاصطناعي.

تم بناء آلية تقييم Sigma على خمسة أبعاد لإنشاء نظام تقييم منطقي يغطي "القدرة" إلى "القيمة". تركز MEDIA على تقييم المشاركة المتعددة الأبعاد للمستخدمين البشريين، بينما تهتم Sigma أكثر بتخصص واستقرار الوكلاء الذكاء الاصطناعي في مجالات معينة، مما يعكس التحول من العمق إلى العرض، ويتماشى بشكل أفضل مع احتياجات الوكلاء الذكاء الاصطناعي.

أولاً، استنادًا إلى القدرة المهنية (Specification)، يعكس مستوى المشاركة (Engagement) ما إذا كان يتم الاستمرار في الانخراط في التفاعل العملي بشكل مستقر، وهو الأساس الرئيسي لبناء الثقة والنتائج اللاحقة. التأثير (Influence) هو ردود الفعل السمعة التي تنتج بعد المشاركة في المجتمع أو الشبكة، مما يدل على مصداقية الوكيل وتأثيره في الانتشار. التقييم النقدي (Monetary) يقيم ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يؤسس لآلية تحفيز مستدامة. أخيرًا، يتم استخدام معدل الاقتباس (Adoption) كمؤشر شامل، يمثل مستوى قبول هذا الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء المسبق.

تتقدم هذه المنظومة بشكل متدرج، وذات هيكل واضح، مما يمكنها من عكس الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي بشكل كامل، وبالتالي تحقيق تقييم كمي لأداء وقيمة الذكاء الاصطناعي، وتحويل المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.

حالياً، تم推进 إطار SIGMA بالتعاون مع الشبكات المعروفة لوكلاء الذكاء الاصطناعي مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هوية الوكلاء الذكيين وبناء نظام السمعة، حيث أصبح تدريجياً المحرك الرئيسي لدفع بناء البنية التحتية للذكاء الاصطناعي الموثوق.

Trusta.AI : تجاوز فجوة الثقة بين الإنسان والآلة

حماية الهوية - آلية تقييم الثقة

في نظام ذكاء اصطناعي عالي المرونة وموثوق به حقًا، فإن الأمر الأكثر أهمية ليس فقط إنشاء الهوية، ولكن أيضًا التحقق المستمر من الهوية. يقدم Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، التي تتيح مراقبة الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت سيطرة غير قانونية، أو تعرضوا لهجوم، أو تأثروا بتدخل بشري غير مصرح به. يقوم النظام بتحديد الانحرافات المحتملة في عملية تشغيل الوكيل من خلال تحليل السلوك والتعلم الآلي، لضمان بقاء كل سلوك للوكيل ضمن السياسات والإطارات المحددة. تضمن هذه الطريقة الاستباقية الكشف الفوري عن أي انحرافات عن السلوك المتوقع، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.

أنشأت Trusta.AI آلية حماية دائمة على الإنترنت، تراقب كل تفاعل في الوقت الحقيقي، لضمان أن جميع العمليات تتماشى مع معايير النظام والتوقعات المحددة.

! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة

مقدمة المنتج

AgentGo

تقوم Trusta.AI بتخصيص هوية لامركزية لكل وكيل AI على السلسلة (DID)، وتقييمه وتصنيفه بناءً على بيانات السلوك على السلسلة، مما أسس نظام ثقة قابل للتحقق وقابل للتتبع لوكلاء AI. من خلال هذا النظام، يمكن للمستخدمين التعرف بسرعة على الوكلاء الذكيين ذوي الجودة العالية وتصفيتهم، مما يعزز تجربة الاستخدام. حتى الآن، أكملت Trusta جمع وتحديد جميع وكلاء AI على الشبكة، ومنحتهم معرفات لامركزية، وأقامت منصة موحدة لتلخيص الفهارس - AgentGo، مما يعزز التطور الصحي لنظام الوكلاء الذكيين.

  1. استعلام والتحقق من هوية المستخدمين البشر:

من خلال لوحة التحكم المقدمة من Trusta.AI، يمكن للمستخدمين البشريين بسهولة استرجاع هوية Agent AI وتقييم سمعته، لتحديد مدى موثوقيته.

  • مشهد الدردشة الاجتماعية: في فريق مشروع يستخدم الروبوت الذكي لإدارة المجتمع أو التحدث، يمكن لمستخدمي المجتمع التحقق عبر لوحة التحكم مما إذا كان هذا الروبوت هو وكيل مستقل حقيقي، لتجنب الخداع أو التلاعب بواسطة "الروبوتات الزائفة".
  1. الوكيل الذكي يستدعي الفهرس والتحقق تلقائيًا:

يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة، مما يتيح تأكيد هوية وسمعة الطرف الآخر بسرعة، وضمان أمان التعاون وتبادل المعلومات.

  • مشهد الرقابة المالية: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرة فهرسة DID الخاص به وتقييمه، لتحديد ما إذا كان وكيل AI مُعتمد، ويرتبط تلقائيًا ببعض المنصات، لمساعدة تتبع تدفق أصوله وامتثال الإصدار.
  • سيناريو التصويت على الحوكمة: عند إدخال تصويت بالذكاء الاصطناعي في مقترحات الحوكمة، يمكن للنظام التحقق مما إذا كانت الجهة التي قدمت أو شاركت في التصويت هي وكيل ذكاء اصطناعي حقيقي، لتجنب استغلال حقوق التصويت من قبل البشر.
  • إقراض الائتمان DeFi: يمكن أن تمنح بروتوكولات الإقراض قروض ائتمانية مختلفة لوكلاء الذكاء الاصطناعي بناءً على نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الوكلاء.

لم يعد AI Agent DID مجرد "هوية"، بل أصبح دعماً أساسياً لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، وغيرها من الوظائف الأساسية، مما يجعله بنية تحتية ضرورية لتطوير النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، تشكل جميع العقد الموثوقة التي تم تأكيد أمانها شبكة مترابطة بشكل وثيق، مما يحقق التعاون الفعال والربط الوظيفي بين AI Agents.

استنادًا إلى قانون ميتكاف، ستشهد قيمة الشبكة نموًا أسيًا، مما سيدفع نحو بناء نظام بيئي لوكلاء الذكاء الاصطناعي أكثر كفاءة، وأكثر ثقة وقدرة على التعاون، لتحقيق مشاركة الموارد وإعادة استخدام القدرات وزيادة القيمة بشكل مستمر بين الوكلاء.

تعتبر AgentGo كأول بنية تحتية موثوقة للهوية مصممة لوكلاء الذكاء الاصطناعي، وهي توفر دعماً أساسياً لا غنى عنه لبناء نظام ذكي عالي الأمان وعالي التعاون.

! [تي آر

TA-26.56%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 2
  • مشاركة
تعليق
0/400
PensionDestroyervip
· منذ 20 س
كيف تلعب حتى الذكاء الاصطناعي عملة 老头币
شاهد النسخة الأصليةرد0
wrekt_but_learningvip
· منذ 20 س
آي آي تلاعب مرة أخرى
شاهد النسخة الأصليةرد0
  • تثبيت