Искусственный интеллект и Блокчейн: переосмысление ценности цепочки поставок и тенденций будущего развития

Эволюция AI-отрасли и перспективы интеграции с Блокчейн

Сфера искусственного интеллекта недавно достигла значительного прогресса и рассматривается как ключевой движущей силой четвертой промышленной революции. Появление крупных языковых моделей значительно повысило эффективность работы в различных отраслях. Консалтинговая компания Boston Consulting Group считает, что GPT повысил производительность в США примерно на 20%. В то же время универсальные способности крупных моделей рассматриваются как новая парадигма проектирования программного обеспечения, отличающаяся от прошлых методов точного кодирования. Современное проектирование программного обеспечения все больше основано на более универсальных рамках крупных моделей, которые могут поддерживать более широкий спектр входных и выходных модальностей. Технологии глубокого обучения принесли новый виток процветания в сферу ИИ, и этот бум постепенно распространяется на индустрию криптовалют.

В этом отчете будет подробно рассмотрен процесс развития отрасли ИИ, классификация технологий, а также влияние технологий глубокого обучения на отрасль. Мы проанализируем текущее состояние и тренды развития в цепочке поставок, включая GPU, облачные вычисления, источники данных и устройства на границе сети в области глубокого обучения. Кроме того, мы также рассмотрим суть связи между криптовалютой и отраслью ИИ, а также проведем анализ структуры цепочки поставок ИИ, связанной с криптовалютой.

История развития AI-индустрии

С тех пор как отрасль ИИ начала развиваться в 50-х годах 20 века, академическая и промышленная сферы в разные времена и в разных научных дисциплинах разработали множество направлений для реализации искусственного интеллекта.

Современные технологии искусственного интеллекта в основном используют термин "машинное обучение", основная идея которого заключается в том, чтобы позволить машинам через данные многократно итеративно улучшать производительность системы в определенных задачах. Основные шаги включают ввод данных в алгоритм, обучение модели на данных, тестирование и развертывание модели, а затем использование модели для выполнения автоматизированных прогнозных задач.

В настоящее время в машинном обучении выделяют три основных направления: соединительный подход, символический подход и поведенческий подход, которые соответственно имитируют нервную систему, мышление и поведение человека. Из них соединительный подход, представленный нейронными сетями, в настоящее время занимает доминирующее положение ( также называется глубоким обучением ). Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; когда количество слоев и нейронов ( параметров ) достаточно велико, она может моделировать сложные обобщенные задачи. Путем постоянного ввода данных и настройки параметров нейронов, в конечном итоге нейроны достигнут оптимального состояния, что также является источником термина "глубокий" - достаточное количество слоев и нейронов.

Технологии глубокого обучения, основанные на нейронных сетях, также прошли через множество итераций и эволюций, начиная с самых ранних нейронных сетей, переходя к полносвязным нейронным сетям, RNN, CNN, GAN и, наконец, развиваясь до современных больших моделей, таких как технологии Transformer, используемые в GPT и др. Технология Transformer является направлением эволюции нейронных сетей, добавляя преобразователь (Transformer), который используется для кодирования данных различных модальностей (, таких как аудио, видео, изображения и т.д. ) в соответствующее числовое представление, а затем вводится в нейронную сеть, что позволяет нейронной сети адаптироваться к любым типам данных и реализовать мультимодальную обработку.

! Новичок в науке丨AI x Crypto: от нуля до пика

Развитие ИИ прошло через три технологические волны:

Первая волна произошла в 60-х годах 20 века, вызванная символистской технологией, решившей проблемы общего естественного языка и диалога между человеком и машиной. В это же время появились экспертные системы, такие как химическая экспертная система DENDRAL, разработанная NASA.

Вторая волна произошла в 1990-х годах, когда были предложены байесовские сети и поведенческая робототехника, что ознаменовало рождение бихевиоризма. В 1997 году IBM Deep Blue победила чемпиона по шахматам Гарри Каспарова, что считается вехой в области искусственного интеллекта.

Третья волна началась в 2006 году. Концепция глубокого обучения была предложена, основанная на архитектуре искусственных нейронных сетей, для обучения представлениям данных. Затем алгоритмы глубокого обучения постоянно эволюционировали, от RNN, GAN до Transformer и Stable Diffusion, формируя эту технологическую волну и являясь расцветом соединительного подхода.

В течение этого периода произошло несколько знаковых событий:

  • В 2011 году Watson от IBM победил человеческих участников в квиз-шоу «Опасная граница».
  • В 2014 году Goodfellow предложил GAN( генеративные состязательные сети).
  • В 2015 году Хинтон и др. представили алгоритмы глубокого обучения в журнале «Природа», что вызвало огромный резонанс. Основание OpenAI.
  • В 2016 году AlphaGo победил чемпиона мира по го Ли Сидо.
  • В 2017 году Google представил алгоритм Transformer, и начали появляться крупномасштабные языковые модели.
  • В 2018 году OpenAI выпустила GPT, а DeepMind выпустила AlphaFold.
  • В 2019 году OpenAI выпустила GPT-2.
  • В 2020 году OpenAI выпустила GPT-3.
  • В 2023 году был запущен ChatGPT на базе GPT-4, который быстро достиг ста миллионов пользователей.

Новичок: AI и криптовалюты: от нуля до вершины

Цепочка поставок глубокого обучения

В настоящее время основные языковые модели в основном используют методы глубокого обучения на основе нейронных сетей. Модели большого размера, такие как GPT, вызвали новую волну интереса к искусственному интеллекту, и множество игроков хлынули в эту область, что привело к резкому увеличению спроса на данные и вычислительные мощности. В этом разделе мы рассмотрим состав цепочки поставок алгоритмов глубокого обучения, а также текущее состояние, соотношение спроса и предложения и будущее развитие как вверх, так и вниз по цепочке.

Обучение больших языковых моделей, таких как GPT, основанных на технологии Transformer, ( LLMs ), в основном делится на три этапа:

  1. Предварительное обучение: ввод большого объема данных для поиска оптимальных параметров нейронов. Этот процесс требует наибольших вычислительных ресурсов и требует многократных итераций с попытками различных параметров.

  2. Тонкая настройка: использование небольшого количества, но качественных данных для обучения, чтобы повысить качество вывода модели.

  3. Укрепляющее обучение: создать "модель награды" для оценки качества вывода большого модель, с помощью этой модели автоматически итеративно изменять параметры большой модели. Иногда также требуется человеческое участие для оценки.

Короче говоря, предобучение требует большого объема данных и затрачивает наибольшее количество вычислительных мощностей GPU; тонкая настройка требует высококачественных данных для улучшения параметров; обучение с подкреплением повторно итеративно настраивает параметры с помощью модели вознаграждения для повышения качества вывода.

Тремя основными факторами, влияющими на производительность больших моделей, являются: количество параметров, объем и качество данных, вычислительная мощность. Эти три фактора совместно определяют качество результатов и обобщающую способность больших моделей. Предположим, что количество параметров равно p, объем данных равен n(, рассчитываемый по количеству токенов), можно оценить необходимое количество вычислений по эмпирическому правилу, чтобы затем оценить необходимую вычислительную мощность и время обучения.

Мощность вычислений обычно измеряется в Flops, что представляет собой одно плавающее вычисление. Согласно практическому опыту, предварительное обучение большой модели требует примерно 6np Flops. Процесс вывода данных (, ожидая выхода модели, требует 2np Flops.

На ранних этапах обучения ИИ в основном использовались процессоры CPU, которые позже постепенно были заменены графическими процессорами GPU, такими как A100 и H100 от Nvidia. GPU значительно превосходят CPU по энергоэффективности, в основном выполняя плавающие вычисления через модуль Tensor Core. Вычислительная способность чипов обычно измеряется в Flops при точности FP16/FP32.

В качестве примера возьмем GPT-3, который имеет 175 миллиардов параметров и объем данных 180 миллиардов токенов, что составляет примерно 570 ГБ. Для одной предварительной тренировки требуется 3,15*10^22 Flops, что соответствует 584 дням работы одной чипа Nvidia A100 SXM. Учитывая, что объем параметров GPT-4 в 10 раз больше, а объем данных также увеличен в 10 раз, возможно, потребуется более 100 раз больше вычислительной мощности чипов.

В обучении больших моделей хранение данных также является вызовом. Оперативная память GPU обычно небольшая ), например, A100 имеет 80 ГБ (, что не позволяет разместить все данные и параметры модели. Поэтому необходимо учитывать пропускную способность чипа, то есть скорость передачи данных между жестким диском и оперативной памятью. При совместном обучении на нескольких GPU скорость передачи данных между чипами также имеет решающее значение.

! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

Индустриальная цепочка глубокого обучения в основном включает в себя следующие этапы:

  1. Поставщики аппаратного обеспечения GPU: в настоящее время Nvidia занимает абсолютное лидирующее положение. В академической среде в основном используются потребительские GPU ), такие как серия RTX (, в то время как в промышленности в основном используются профессиональные чипы, такие как H100, A100 и др. У Google также есть собственные TPU чипы.

  2. Поставщики облачных услуг: предоставляют гибкие вычислительные мощности и решения для размещения обучения для AI-компаний с ограниченными финансами. В основном делятся на три категории: традиционные облачные провайдеры ), такие как AWS, Google Cloud, Azure (, вертикальные платформы облачных вычислений AI ), такие как CoreWeave, Lambda (, и провайдеры "инференции как услуги" ), такие как Together.ai, Fireworks.ai (.

  3. Поставщики тренировочных данных: предоставляют большое количество данных или высококачественные данные для больших моделей. Компании, такие как Google и Reddit, обладающие большими объемами данных, привлекают внимание. Также существуют специализированные компании по аннотации данных, которые предоставляют данные для моделей в определенных областях.

  4. Поставщики баз данных: задачи обучения ИИ в основном используют "векторные базы данных", предназначенные для эффективного хранения и индексирования огромного объема высокоразмерных векторных данных. Основные игроки включают Chroma, Zilliz, Pinecone, Weaviate и др.

  5. Периферийные устройства: обеспечивают охлаждение и электропитание для кластеров GPU. Включая источники энергии ), такие как геотермальная энергия, водородная энергия, ядерная энергия ( и системы охлаждения ), такие как технологии жидкостного охлаждения (.

  6. Применение: В настоящее время AI-приложения в основном сосредоточены в таких областях, как поиск, вопросы и ответы, и уровень удержания и активности обычно ниже, чем у традиционных интернет-приложений. Приложения в основном делятся на три категории: для профессиональных потребителей, бизнеса и обычных потребителей.

! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

Отношение криптовалюты и ИИ

Основой технологии Блокчейн является децентрализация и отсутствие доверия. Биткойн создал систему передачи ценности без необходимости доверия, в то время как Эфириум далее реализовал децентрализованную платформу смарт-контрактов, не требующую доверия. По сути, Блокчейн-сеть является сетью ценностей, где каждая транзакция представляет собой преобразование ценности на основе базового токена.

В традиционном интернете ценность выражается в ценах акций через такие показатели, как P/E. В блокчейн-сетях, такие как ETH), оригинальный токен ( отражает многомерную ценность сети, позволяя не только получать доход от стейкинга, но и использовать его в качестве средства обмена ценностями, средства хранения ценностей, а также потребительских товаров для сетевой активности.

Токеномика ) определяет относительную стоимость расчетных объектов ( в экосистеме и ) нативных токенов. Хотя невозможно установить цену для каждого измерения отдельно, цена токена комплексно отражает многомерную ценность. Как только токены предоставлены сети и начинают циркулировать, можно добиться ценности, значительно превышающей традиционное владение акциями.

Привлекательность токеномики заключается в том, что она может придавать ценность любой функции или идее. Она переопределяет и открывает ценность, что имеет решающее значение для различных отраслей, включая ИИ. В сфере ИИ выпуск токенов может изменить ценность на различных этапах производственной цепочки, мотивируя больше людей углубляться в узкие ниши. Токены также могут предоставить дополнительную ценность для инфраструктуры, способствуя формированию парадигмы "толстый протокол, тонкое приложение".

Неподделываемые и бездоверительные свойства технологии Блокчейн также могут принести реальную ценность в индустрию ИИ. Например, можно разрешить моделям использовать данные, защищая при этом конфиденциальность пользователей; можно перераспределить неиспользуемую вычислительную мощность GPU через глобальную сеть, вновь открывая остаточную стоимость.

В общем, токеномика помогает переосмыслить и обнаружить ценность, децентрализованный реестр может решить проблему доверия, перетасовывая ценности по всему миру. Эта комбинация открывает новые возможности для индустрии ИИ.

Новый пользовательский гид丨AI x Crypto:С нуля до вершины

Обзор цепочки производителей ИИ в индустрии криптовалют

  1. Сторона предложения GPU: Основные проекты включают Render, Golem и др. Render, как более зрелый проект, в основном ориентирован на задачи видеорендеринга, не связанные с крупными моделями. Рынок облачных вычислений с использованием GPU может обслуживать не только обучение и вывод AI моделей, но и традиционные задачи рендеринга, что снижает риски зависимости от единственного рынка.

  2. Аппаратная полоса пропускания: Проект, такой как Meson Network, пытается создать глобальную сеть совместного использования полосы пропускания. Однако совместное использование полосы пропускания может быть ложной необходимостью для обучения больших моделей, так как задержка, вызванная географическим положением, может существенно повлиять на эффективность обучения.

  3. Данные: Основные проекты включают EpiK Protocol, Synesis One, Masa и другие. В отличие от традиционных компаний по обработке данных, Блокчейн провайдеры данных имеют преимущества в сборе данных, могут устанавливать цены на личные данные и стимулировать пользователей вносить данные с помощью токенов.

  4. ЗКМЛ: Проекты, такие как Zama, TruthGPT и другие, используют технологии нулевого раскрытия для реализации приватных вычислений и обучения. Кроме того, некоторые универсальные ZK-проекты, такие как Axiom и Risc Zero, также заслуживают внимания.

  5. Применение ИИ: В настоящее время основное внимание уделяется традиционным приложениям Блокчейн в сочетании с автоматизацией и универсальными способностями. AI Agent(, такой как Fetch.AI), как мост между пользователями и различными приложениями, имеет возможность первыми получить выгоду.

  6. AI Блокчейн: Например, Tensor,

GPT2.08%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 4
  • Поделиться
комментарий
0/400
mev_me_maybevip
· 18ч назад
gpt перегрелся, пора охладиться
Посмотреть ОригиналОтветить0
fork_in_the_roadvip
· 18ч назад
Уже все понявшие неудачники
Посмотреть ОригиналОтветить0
NotFinancialAdviservip
· 18ч назад
GPT понимает, что Торговля криптовалютой в этот раз обязательно достигнет нового рекорда.
Посмотреть ОригиналОтветить0
ContractExplorervip
· 18ч назад
ai ликвидирован 其他跟蹆虫
Посмотреть ОригиналОтветить0
  • Закрепить