Модель Manus ведет прорыв в ИИ, полностью гомоморфное шифрование становится новым фокусом безопасности

Модель Manus достигла SOTA результатов, вызвав обсуждение путей развития ИИ и вопросов безопасности

Manus продемонстрировал выдающуюся производительность в тестировании GAIA, превосходя крупные языковые модели того же уровня. Это означает, что он может самостоятельно обрабатывать сложные задачи, такие как международные бизнес-переговоры, включая анализ контрактов, разработку стратегий и генерацию предложений. Преимущества Manus заключаются в его динамическом разбиении целей, межмодальном рассуждении и способности к обучению с усилением памяти. Он может разбивать сложные задачи на сотни исполняемых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.

Прорывные достижения Manus вновь вызвали обсуждение в отрасли о пути развития ИИ: следует ли двигаться к единой модели общего искусственного интеллекта (AGI) или к модели сотрудничества многократных интеллектуальных агентов (MAS)?

Это обсуждение исходит из концепции дизайна Manus, которая подразумевает два возможных направления развития:

  1. Путь AGI: Постоянно повышая общие способности единой интеллектуальной системы, приближая её к уровню человеческих решений.

  2. Путь MAS: использовать Manus в качестве суперкоординатора, который управляет совместной работой множества интеллектуальных агентов в различных профессиональных областях.

На поверхности это спор о технических путях, но на самом деле это отражает проблему баланса между эффективностью и безопасностью в развитии ИИ. Чем ближе единая интеллектуальная система к AGI, тем выше риск непрозрачности ее процесса принятия решений; в то время как многомодульные системы могут распределять риски, но могут упустить критически важные моменты для принятия решений из-за задержек в связи.

Прогресс Manus также подчеркивает неотъемлемые риски, связанные с развитием ИИ. Например, в медицинских сценариях требуется доступ к конфиденциальным данным пациентов; в финансовых переговорах могут быть затронуты неразглашенные корпоративные сведения. Кроме того, существует проблема алгоритмической предвзятости, которая может привести к несправедливым предложениям по зарплате для определенных групп в процессе набора персонала. В обзоре юридических документов также наблюдается высокая степень ошибок в отношении условий, касающихся новых отраслей. Еще более серьезно, хакеры могут ввести специальные голосовые сигналы, чтобы ввести в заблуждение Manus и заставить его сделать неправильные выводы в ходе переговоров.

Эти проблемы подчеркивают суровую реальность: чем более современна интеллектуальная система, тем больше у нее потенциальных уязвимостей.

Manus приносит первый свет AGI, безопасность ИИ также заслуживает глубоких размышлений

В области блокчейна и криптовалют безопасность всегда была ключевым вопросом. Теория "невозможного треугольника" (безопасность, децентрализация и масштабируемость не могут быть реализованы одновременно), предложенная основателем Эфириума Виталиком Бутериным, вдохновила на множество стратегий безопасности:

  • Модель нулевого доверия: основана на принципе "никогда не доверять, всегда проверять", требует строгой аутентификации и авторизации для каждого запроса на доступ.
  • Децентрализованная идентичность (DID): стандарт идентификации, который не требует централизованной регистрации и поддерживает проверяемую и долговременную аутентификацию личности.
  • Полностью однородное шифрование (FHE): высокоуровневая технология шифрования, позволяющая проводить вычисления непосредственно на зашифрованных данных, особенно подходит для облачных вычислений и таких сценариев, как внешняя обработка данных.

Эти стратегии безопасности предоставляют важные идеи для решения проблем безопасности в эпоху ИИ. Особенно технология полностью гомоморфного шифрования считается мощным инструментом для борьбы с проблемами безопасности ИИ.

Технология FHE может повысить безопасность систем ИИ на нескольких уровнях:

  1. На уровне данных: вся информация, вводимая пользователем (включая биометрические данные, голос и т.д.), обрабатывается в зашифрованном состоянии, даже сама система ИИ не может расшифровать исходные данные.

  2. Алгоритмический уровень: реализация "обучения зашифрованной модели" с помощью FHE, так что даже разработчики не могут напрямую понять процесс принятия решений ИИ.

  3. Координационный уровень: связь между несколькими интеллектуальными агентами осуществляется с использованием порогового шифрования, даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.

Несмотря на то, что эти технологии безопасности могут показаться обычным пользователям далекими, они напрямую связаны с интересами каждого. В "темном лесу" цифрового мира только постоянное усиление безопасности может помочь избежать становления потенциальной жертвой.

В области децентрализованных идентификаторов проект uPort был запущен в 2017 году на основной сети Ethereum. Что касается модели нулевого доверия, проект NKN выпустил основную сеть в 2019 году. А в области полностью гомоморфного шифрования Mind Network стал первым проектом с FHE, запущенным на основной сети, и сотрудничает с такими организациями, как ZAMA, Google, DeepSeek.

Несмотря на то, что прошлые проекты безопасности могли не привлекать широкого внимания инвесторов, с быстрым развитием технологий AI важность вопросов безопасности становится все более очевидной. Проекты, такие как Mind Network, могут стать лидерами в области безопасности, и за ними стоит продолжать следить.

С развитием технологий ИИ, приближающихся к уровню человеческого интеллекта, нам нужны более продвинутые системы защиты. Технология FHE не только решает текущие проблемы, но и подготавливает нас к будущей эпохе более мощного ИИ. На пути к AGI FHE больше не является опциональным, а становится необходимым условием для безопасного развития ИИ.

FHE-3.6%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
JustHereForMemesvip
· 7ч назад
Какова польза от SOTA? Все равно не сможем играть с Блокчейном.
Посмотреть ОригиналОтветить0
ParanoiaKingvip
· 7ч назад
Безопасность, даже если она разогрета до предела, остается лишь теоретической.
Посмотреть ОригиналОтветить0
AlwaysMissingTopsvip
· 7ч назад
Называй меня Сатоши, и этого будет достаточно!
Посмотреть ОригиналОтветить0
GasFeePhobiavip
· 7ч назад
Не крути, не крути.
Посмотреть ОригиналОтветить0
SchroedingerGasvip
· 7ч назад
Так это просто спекуляция!
Посмотреть ОригиналОтветить0
  • Закрепить