От подгонки по шаблону к интеллектуальному производству: оптимизация предпочтений напрямую и децентрализованное обучение с подкреплением в Web3

Эволюция искусственного интеллекта отражает фундаментальный переход: от статистических систем, которые просто подгоняют шаблоны, к структурам, способным к структурированному рассуждению. В центре этого преобразования лежит обучение с подкреплением — методология, которая перешла от академического интереса к практической необходимости. Однако наиболее захватывающее развитие сегодня выходит за рамки отдельных алгоритмических решений. Оно охватывает то, как мы обучаем системы ИИ, кто управляет их ценностями и как структурированы экономические стимулы, обеспечивающие их согласование. Прямое оптимизация предпочтений (DPO) и децентрализованные сети Web3 представляют собой две технологии, объединяющиеся для революционного переосмысления управления ИИ и его производства, бросая вызов текущему монополии централизованных технологических гигантов на интеллектуальные системы.

Архитектура современного обучения ИИ: три этапа и их экономические границы

Современные крупные языковые модели следуют хорошо установленной цепочке обучения, каждый этап выполняет свои функции с радикально разными экономическими и техническими характеристиками. Понимание этой архитектуры раскрывает, почему некоторые этапы по своей природе остаются централизованными, а другие — более естественно подходят для децентрализации.

Предварительное обучение формирует основу, требуя масштабного самонаблюдаемого обучения на триллионах токенов. Этот этап требует синхронизированных глобальных кластеров из тысяч высокопроизводительных GPU и составляет 80–95% всех затрат на обучение. Требования к пропускной способности, сложности координации данных и капитальные вложения закрепляют этот этап в централизованных средах, управляемых хорошо обеспеченными организациями.

Контролируемая донастройка (SFT) внедряет возможности выполнения задач и поведение по следованию инструкциям с помощью относительно небольших наборов данных. Хотя она занимает всего 5–15% затрат, она всё равно требует синхронизации градиентов между узлами, что ограничивает её потенциал для децентрализации. Техники вроде LoRA и Q-LoRA предоставляют некоторые обходные пути, но не устранили фундаментальный узкий момент синхронизации.

Постобучение — последний этап, — представляет собой точку перегиба. В этот этап входят обучение предпочтениям, моделирование вознаграждений и оптимизация политики — все механизмы формирования рассуждений и согласования. Постобучение занимает всего 5–10% от общих затрат, но парадоксально оказывает огромное влияние на поведение модели. Ключевое — его архитектура принципиально отличается от предобучения: работа естественно разбивается на параллельные, асинхронные компоненты, не требующие полного веса модели на каждом узле. Эта структурная особенность становится критической при рассмотрении децентрализованных альтернатив.

В рамках постобучения существует несколько подходов, каждый с разными последствиями для централизации. Долгое время доминировало обучение с подкреплением на основе обратной связи от человека (RLHF), использующее аннотации человека для обучения моделей вознаграждения, которые затем управляют оптимизацией политики через Proximal Policy Optimization (PPO). Но появились новые методы. Прямая оптимизация предпочтений (DPO) полностью обходят обучение модели вознаграждения, напрямую оптимизируя поведение модели по парам предпочтений. Обучение с подкреплением на основе обратной связи ИИ (RLAIF) автоматизирует человеческое суждение с помощью ИИ-судей. Эти разнообразные методики показывают, что не существует единственного оптимального пути, а есть несколько жизнеспособных архитектур — каждая с разными затратами, масштабируемостью и аспектами управления.

Ключевое понимание: врождённая параллелизация и низкие требования к данным в постобучении делают его особенно подходящим для открытых, децентрализованных сетей. Прямая оптимизация предпочтений — пример этого потенциала: устраняя необходимость отдельного этапа моделирования вознаграждений, который традиционно требовал централизованной инфраструктуры, DPO снижает связку вычислений между узлами, позволяя меньшим операторам участвовать значимо.

Системы обучения с подкреплением: разбор архитектуры и стимулов

Обучение с подкреплением функционирует через концептуально простую, но механически богатую петлю: взаимодействие с окружением генерирует траектории (ролл-оуты), сигналы вознаграждения оценивают качество, а обновления политики смещают поведение модели к более ценным действиям. Эта абстракция скрывает важные структурные детали, которые становятся критическими в распределённых контекстах.

Полная система RL состоит из трёх отдельных модулей:

Политическая сеть (Policy Network): модель, генерирующая действия в ответ на состояния. Во время обучения политика остаётся относительно стабильной в рамках циклов обновления, сосредоточена на централизованных вычислениях для согласованности градиентов. В режиме инференса она высоко параллелизуема на разнородном оборудовании.

Ролл-оут (Генерация данных): этап, когда развернутые политики взаимодействуют с окружением или задачами, генерируя траектории. Этот этап требует минимальной коммуникации, работает асинхронно по узлам и не требует синхронизации между работниками. Возможно, наиболее естественно параллелизуемый компонент современных ML-систем.

Обучающий (Learner, обновление политики): агрегирует траектории ролл-оутов и вычисляет градиентные обновления политики. Этот компонент требует высокой вычислительной интенсивности, строгой синхронизации и централизованного управления для обеспечения сходимости. Он — естественный дом для концентрированных вычислительных ресурсов.

Это архитектурное разбиение показывает, почему RL естественно сочетается с децентрализованными вычислениями: генерация ролл-оутов — наиболее параллелизуемый компонент — может делегироваться глобально распределённым узлам, в то время как обновление политики сохраняет свои централизованные требования.

Недавние алгоритмические инновации усилили этот потенциал. Групповая относительная оптимизация политики (GRPO), разработанная DeepSeek-R1, заменяет критическую сеть PPO внутри-групповой оценкой преимущества. Эта замена уменьшает память и, что важно, повышает совместимость с асинхронными средами, где узлы испытывают переменную задержку. Прямая оптимизация предпочтений ещё больше упрощает цепочку: устраняя отдельное обучение модели вознаграждения, DPO позволяет узлам работать напрямую с данными предпочтений, снижая архитектурную связку, которая ранее требовала синхронных вычислений.

Естественное согласование: почему архитектуры RL и Web3 совпадают по структуре

Совместимость RL и Web3 выходит за рамки поверхностного сходства. Обе системы по сути являются архитектурами, основанными на стимуллах, где координация возникает не из централизованного планирования, а из согласованных структур вознаграждения. Эта структурная родство говорит не только о технической возможности — оно указывает на экономическую жизнеспособность и легитимность управления.

Распределение роллов и гетерогические вычисления: этап ролл-оут RL может работать на GPU потребительского уровня, на edge-устройствах и на разнородном оборудовании по всему миру. Сети Web3 отлично справляются с координацией таких участников. Вместо централизованной облачной инфраструктуры сеть RL на базе Web3 мобилизует неиспользуемую вычислительную мощность — превращая недоиспользуемое оборудование в продуктивную инфраструктуру обучения. Для систем, требующих неограниченного количества ролл-оутов, ценовое преимущество по сравнению с централизованными облаками становится экономически решающим.

Проверяемые вычисления и криптографические доказательства: открытые сети сталкиваются с проблемой доверия: как убедиться, что заявленный вклад действительно имел место? Централизованные системы решают это через административные полномочия. Децентрализованные требуют криптографической уверенности. Здесь задачи RL — кодирование, математические доказательства, шахматные позиции — создают естественные возможности для верификации. Технологии вроде Zero-Knowledge proofs и Proof-of-Learning могут криптографически подтвердить, что рассуждения выполнены правильно, создавая проверяемое доверие к распределённому обучению без централизованного арбитража.

Прямая оптимизация предпочтений как катализатор децентрализации: рост DPO показывает, как алгоритмические инновации позволяют архитектурной децентрализации. Традиционный RLHF требовал централизованной модели вознаграждения, обученной и развернутой одним органом. DPO инвертирует это: данные предпочтений могут поступать из разных источников — ИИ-судей, голосований сообщества, проверяемого выполнения кода — и напрямую использоваться для оптимизации политики без прохождения через централизованный фильтр. В контексте Web3 DPO позволяет предпочтениям стать активом, управляемым на блокчейне. Сообщества могут токенизировать и торговать сигналами предпочтений, участвуя в экономике согласования, ранее зарезервированной для корпоративных исследовательских отделов.

Токенизированные стимулы: токены блокчейна создают прозрачные, настраиваемые, разрешённые механизмы вознаграждения. Участники ролл-оутов получают токены пропорционально сгенерированной ценности. Судьи ИИ за предпочтения зарабатывают награды. Верификаторы подтверждают подлинность работы, ставя токены и подвергая их штрафам за злоупотребление. Это создает «рынок согласования», где производство данных предпочтений становится экономически продуктивным для разнородных участников — гораздо более эффективным, чем традиционный краудсорсинг, где работники конкурируют в анонимных рынках.

Мультиагентное обучение с подкреплением в публичных цепочках: блокчейны по своей природе — это среды с множеством агентов, где аккаунты, контракты и автономные агенты постоянно корректируют стратегии под воздействием стимулов. Это создаёт естественные тестовые площадки для исследований мультиагентного RL. В отличие от изолированных симуляций, среды блокчейна предоставляют реальные экономические ставки, проверяемое состояние и программируемые механизмы стимулов — именно в таких условиях развиваются устойчивые алгоритмы MARL.

Кейсы: от теории к развернутым системам

Теоретическая конвергенция RL и Web3 породила разнообразные подходы к реализации. Каждый проект — это разные «точки прорыва» внутри общей архитектурной парадигмы разъединения, верификации и стимулов.

Prime Intellect: асинхронный ролл-оут в глобальном масштабе

Prime Intellect нацелен на фундаментальное ограничение распределённого обучения — накладные расходы на синхронизацию. Его ключевое нововведение — фреймворк prime-rl — полностью отвергает синхронную парадигму PPO. Вместо ожидания завершения каждого батча всеми работниками, prime-rl обеспечивает непрерывную асинхронную работу. Работники ролл-оутов независимо вытягивают последнюю политику, генерируют траектории и загружают результаты в общий буфер. Обучающие непрерывно используют эти данные без батчевой синхронизации.

Серия моделей INTELLECT демонстрирует жизнеспособность этого подхода. INTELLECT-1 (октябрь 2024) обучалась эффективно на трёх континентах с коэффициентом коммуникации ниже 2%. INTELLECT-2 (апрель 2025) внедрила разрешённое RL, позволяя участвовать любым узлам без предварительного одобрения. INTELLECT-3 (ноябрь 2025), использующая 512×H200 GPU с разреженной активацией, достигла AIME 90.8%, GPQA 74.4%, MMLU-Pro 81.9% — показатели, приближающиеся или превосходящие централизованные модели значительно большего размера.

Инфраструктурные компоненты Prime Intellect решают основные проблемы децентрализации: OpenDiLoCo уменьшает межрегиональную коммуникацию в сотни раз. TopLoc и верификаторы создают децентрализованный слой доверенного выполнения. Data engine SYNTHETIC обеспечивает генерацию высококачественных цепочек рассуждений в масштабах. Эти системы совместно решают задачи генерации данных, верификации и пропускной способности inference — практические узкие места децентрализованного обучения.

Gensyn: коллективное обучение через динамику роя

Gensyn переосмысливает RL как задачу коллективной эволюции, а не централизованной оптимизации. Его архитектура RL Swarm распределяет весь цикл обучения: решатели генерируют траектории, предложители создают разнообразные задачи, оценщики оценивают решения с помощью замороженных моделей судей или проверяемых правил. Эта P2P-структура исключает централизованное планирование, заменяя его саморганизующимся сотрудничеством.

SAPO (Swarm Sampling Policy Optimization) реализует эту концепцию. Вместо обмена градиентами, требующими тяжёлой синхронизации, SAPO делится ролл-оутами — воспринимая полученные траектории как локально сгенерированные. Это радикально снижает пропускную способность, сохраняя гарантии сходимости даже при высокой гетерогенности узлов с значительной задержкой. По сравнению с критическими сетями PPO или даже GRPO, SAPO позволяет участникам с потребительским оборудованием эффективно участвовать в крупномасштабном RL.

Подход Gensyn подчёркивает, что децентрализованный RL — это не просто перенос централизованного обучения на распределённое оборудование, а принципиально иной режим работы, где сотрудничество возникает из согласованных стимулов, а не из скоординированного планирования.

Nous Research: проверяемое согласование через детерминированные окружения

Nous Research рассматривает RL как замкнутую систему интеллекта, где обучение, инференс и окружение создают непрерывную обратную связь. Его компонент Atropos — проверяемая среда RL — становится точкой доверия. Atropos инкапсулирует подсказки, вызовы инструментов, выполнение кода и цепочки рассуждений в стандартизированных окружениях, прямо проверяя правильность вывода и генерируя детерминированные вознаграждения.

Это даёт несколько преимуществ: во-первых, устраняет необходимость дорогой человеческой аннотации. Задачи программирования возвращают сигналы «успех/неудача». Математические задачи дают проверяемые решения. Во-вторых, это основа для децентрализованного RL. В сети Nous Psyche Atropos выступает в роли судьи, подтверждающего, что узлы действительно улучшают свои политики, что позволяет иметь проверяемое доказательство обучения.

Стек компонентов Nous — Hermes (модели рассуждений), Atropos (верификация), DisTrO (эффективность коммуникаций), Psyche (децентрализованная сеть), WorldSim (сложные окружения) — показывает, как алгоритмические и системные инновации объединяются для обеспечения децентрализации. Внедрение DeepHermes с GRPO вместо PPO специально ориентировано на возможность инференса RL, работающего в распределённых сетях.

Gradient Network: эхо и гетерогические вычисления

Gradient’s Echo разделяет инференс и обучение на отдельные рои, каждый масштабируется независимо. Рой инференса, состоящий из GPU потребительского уровня, использует пайплайн-параллелизм для максимизации пропускной способности. Рой обучения занимается градиентными обновлениями. Лёгкие протоколы синхронизации поддерживают согласованность: Sequential Mode — приоритет актуальности политики для задач с низкой задержкой; Asynchronous Mode — для максимальной загрузки.

Дизайн Echo учитывает реальную практику: полная синхронизация невозможна в глобальных сетях. Вместо этого он управляет версионной согласованностью и аккуратно обрабатывает устаревание политики через протоколы. Такой прагматичный подход отличается от систем, предполагающих синхронные вычисления — Echo работает с реальностью сети, а не против неё.

Bittensor/Grail: криптографическая проверка согласованности

В экосистеме Bittensor субсеть Covenant AI — Grail — занимается децентрализованным RLHF/RLAIF через криптографическую проверку. Grail создаёт цепочку доверия: детерминированное создание вызовов исключает мошенничество с предвычислениями. Валидааторы собирают логарифмы токенов и цепочки inference по минимальной стоимости, подтверждая, что ролл-оуты исходят от заявленной модели. Связка идентичности модели обеспечивает мгновенное обнаружение замены модели или повторного использования результатов.

Эта трёхслойная система создаёт аудит без центрального органа. Процесс, похожий на GRPO, генерирует несколько путей inference по задаче, оценивает их по правильности и качеству рассуждений, и записывает результаты в блокчейн как взвешенные консенсусом вклады.

Fraction AI: обучение через соревнование

Подход Fraction AI инвертирует традиционное согласование: вместо статичных наград от фиксированных моделей агенты соревнуются в динамических средах, где стратегии противников и оценщики постоянно эволюционируют. Награды возникают из относительной эффективности и оценок ИИ-судей. Это предотвращает «игру» с моделями вознаграждения — основную уязвимость систем RLHF.

Игровая среда превращает согласование из «разметки работы» в «соревновательный интеллект». Агенты постоянно входят в пространства, соревнуются и получают награды на основе ранжирования в реальном времени. Эта мультиагентная структура, в сочетании с прямой оптимизацией предпочтений между конкурирующими агентами, создаёт разнообразие и препятствует застреванию в локальных оптимумах. Proof-of-Learning связывает обновления политики с конкретными результатами соревнований, обеспечивая проверяемый прогресс обучения.

Прямая оптимизация предпочтений: от метода согласования к экономическому активу

Особое внимание заслуживает прямая оптимизация предпочтений (DPO), поскольку её развитие освещает более широкие тенденции в децентрализации обучения ИИ.

Традиционный RLHF создавал двухэтапную цепочку: сначала собирались пары предпочтений и обучалась централизованная модель вознаграждения, затем она использовалась как цель оптимизации. Эта архитектура закрепляла централизацию: поток данных предпочтений проходил через один узел, создавая узкое место и единственный источник правды о качестве модели.

DPO инвертирует это. Он напрямую оптимизирует параметры модели по парам предпочтений без промежуточной модели вознаграждения. Это существенно — снижает требования к вычислениям (отсутствие отдельного обучения модели вознаграждения), а также расширяет организационные возможности: данные предпочтений поступают из разных источников — ИИ-судей, голосований сообщества, проверяемого выполнения кода — и используются напрямую для оптимизации политики без централизованного посредника. В контексте Web3 предпочтения и модели вознаграждения могут стать активами на блокчейне, управляемыми сообществами, которые голосуют токенами за желаемое поведение модели. Смарт-контракты, реализующие ИИ-судейство, обеспечивают проверяемые сигналы предпочтений. DPO превращается в связующее звено между управлением сообществом и поведением модели.

Типичный рабочий процесс RLHF → RLAIF → DPO — это не линейная цепочка, а набор инструментов. RLHF подходит для гуманцентрированного согласования. RLAIF масштабируется за счёт ИИ-судей. DPO снижает инфраструктурную связку. В разных сценариях предпочтительнее разные методы. Главное — постобучение обладает множеством жизнеспособных архитектур. Эта диверсификация создаёт пространство для инноваций, децентрализованных по своей природе, которые централизованные системы, ориентированные на один единственный путь, могут пропустить.

Конвергенция: разъединение, верификация и стимулы

Несмотря на различия в подходах — будь то алгоритмический (DisTrO от Nous), системный (prime-rl от Prime Intellect) или рыночный (конкурентная динамика Fraction AI) — успешные проекты Web3+RL сходятся к единому архитектурному паттерну:

Разъединение этапов вычислений: ролл-оуты — распределённым участникам; обновления политики — концентрированным обучающим; верификация — специализированным узлам. Эта топология соответствует как внутренним требованиям RL, так и распределённой природе Web3.

Доверие через верификацию: вместо административных полномочий криптографические доказательства и детерминированная проверка обеспечивают правильность. Zero-Knowledge proofs подтверждают рассуждения. Proof-of-Learning подтверждает, что работа действительно выполнена. Это создаёт машинно-проверяемую уверенность, заменяющую человеческое доверие.

Токенизированные стимулы: цепочки поставки вычислений, генерации данных, верификации и распределения наград замыкаются через токеновые механизмы. Участники ставят токены, сталкиваются с штрафами за злоупотребление и зарабатывают награды за вклад. Это создаёт согласованные стимулы без централизованного управления.

В рамках этой архитектуры разные проекты реализуют свои технологические преимущества. Nous Research ориентируется на «стену пропускной способности» — стремится сжать коммуникацию градиентов настолько, чтобы даже домашний интернет позволял обучать крупные модели. Prime Intellect и Gensyn делают ставку на системную инженерную эффективность, максимально загружая гетерогенное оборудование через оптимизированные фреймворки. Bittensor и Fraction AI делают акцент на дизайн функции награды, создавая сложные механизмы оценки, которые управляют возникновением поведения.

Общая вера — что распределённое обучение с подкреплением — это не просто централизованное обучение, реализованное на многих машинах, а принципиально иная архитектура, лучше соответствующая экономическим и техническим реалиям постобучения.

Вызовы: реальность децентрализованного обучения

Теоретическая согласованность с реальностью требует решения структурных ограничений, которые остаются нерешёнными в экосистеме.

Пропускная способность: обучение сверхбольших моделей (70+ млрд параметров) всё ещё сталкивается с физическими задержками. Несмотря на достижения DisTrO, достигающие тысячекратных сокращений коммуникации, текущие децентрализованные системы лучше всего подходят для донастройки и инференса, а не для обучения с нуля. Это не постоянный лимит, а текущий рубеж. По мере улучшения протоколов связи и архитектур моделей (особенно разреженных) эта граница может сместиться.

Закон Гаарта: в высоко стимулируемых сетях участники могут искушаться оптимизировать сигналы вознаграждения, а не истинный интеллект. Майнеры «фермят» оценки, эксплуатируя крайние случаи функции вознаграждения. Агенты «играют» с предпочтениями. Это не новая проблема — централизованные системы сталкиваются с аналогичными вызовами. Но в децентрализованных системах она усиливается: злоумышленнику достаточно обмануть алгоритм, а не политические структуры. Надёжное проектирование функций вознаграждения и механизмов верификации остаётся в противостоянии с хитрыми оптимизациями заинтересованных акторов.

Бийzantинский злонамеренность: активные атаки скомпрометированных узлов могут загрязнить сигналы обучения, нарушая сходимость. Хотя криптографическая верификация предотвращает некоторые атаки (ложное утверждение о выполненной работе), она не защищает от всех злонамеренных действий (например, запуск кода с враждебным намерением). Адаптивная устойчивость в децентрализованном RL — это открытая область исследований.

Реальная возможность: переписывание отношений производства интеллекта

Эти вызовы — реальные, но не исключающие. Более широкая возможность оправдывает долгосрочные инвестиции и исследования.

Главная идея — что RL в сочетании с Web3 переписывает не только технологию обучения, но и экономические и управленческие структуры вокруг развития ИИ. Выделяются три пути эволюции:

Первое — децентрализованные обучающие сети: вычислительные мощности, ранее — шахты в традиционных системах — превращаются в сети политик. Параллельное, проверяемое создание ролл-оутов передаётся глобально — на GPU с длинным хвостом. В краткосрочной перспективе это может развиться в рынки проверяемого инференса, а в среднесрочной — в подсети RL, занимающиеся кластеризацией задач и мультиагентной координацией. Это устраняет необходимость централизованных вычислений как барьера для развития ИИ.

Второе — активизация предпочтений и моделей вознаграждения: данные предпочтений превращаются из «разметочного труда» в «активы с правами собственности» — управляемые, торгуемые, составляемые активы. Высококачественная обратная связь и тщательно курируемые модели вознаграждения становятся цифровыми активами с реальной экономической ценностью. Сообщества пользователей, а не централизованные компании, решают, что есть хорошее поведение ИИ. Это демократизирует согласование — ранее сосредоточенное в корпоративных исследовательских отделах — и расширяет управление.

Третье — вертикально-специализированные агенты: узкоспециализированные RL-агенты для конкретных областей (DeFi, генерация кода, математические рассуждения) вероятно превзойдут универсальные модели в своих сферах, особенно там, где результаты проверяемы и выгоды количественно измеримы. Эти агенты напрямую связывают улучшение стратегии с экономической отдачей, создавая замкнутую цепочку стимулов между производительностью модели и доходами. Их можно обучать непрерывно на децентрализованных сетях, быстро обновляя по мере изменения окружения.

Общий потенциал — это не просто развитие «децентрализированного OpenAI» — это переписывание производственных отношений вокруг интеллекта. Обучение превращается в открытый рынок вычислительных ресурсов. Награды и предпочтения — в управляемые на блокчейне активы. Ценность, ранее сосредоточенная в платформах, перераспределяется между тренерами, согласовщиками и пользователями.

Это не постепенное улучшение существующих систем, а реконструкция способов производства, согласования и распределения ценности, которую создаёт интеллект. Для такой важной технологии, как общий интеллект, контроль над этими механизмами — вопрос судьбоносный.

Итог: от академического интереса к экономической реальности

Слияние RL и архитектур Web3 — это не только техническая возможность, это отражение глубокого структурного совпадения: как работают RL-системы и как координируются децентрализованные сети. Проекты от Prime Intellect до Fraction AI показывают, что это уже не теория. Архитектура работает. Модели обучаются. Награды распределяются. Ценность течёт к участникам.

Проблемы есть — пропускная способность, «игра» с вознаграждениями, атаки Бийzantинов — и все они не сложнее тех, что стоят перед централизованными системами. Более того, децентрализованные системы дают то, что централизованные — не могут: легитимность управления вне корпоративной фиаты, экономические стимулы, соответствующие интересам участников, и возможность инноваций, выходящих за рамки дорожных карт одной компании.

В ближайшие годы стоит наблюдать за двумя индикаторами: во-первых, смогут ли децентрализованные сети постобучения тренировать модели, приближающиеся к передовым результатам. Недавние достижения показывают, что да. Во-вторых, появятся ли новые архитектуры интеллекта, которые были невозможны при централизованном обучении. Конкурентная динамика RL — с множеством агентов, исследующих пространство решений — может породить возможности, недоступные одному централизации.

Настоящее изменение не будет сразу заметно. Оно не проявится в бенчмарках или размерах моделей. Оно проявится в тонких перераспределениях: всё больше разработчиков — не в крупных компаниях. Сообщества коллективно определяют ценности моделей, а не корпоративные советы. Экономическая ценность течёт к тысячам участников, создающих системы интеллекта, а не концентрируется у акционеров.

Это и есть обещание RL в сочетании с Web3 — не просто технологии, а переосмысленные производственные отношения для эпохи интеллекта.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить