BSV
BSV

Курс Bitcoin SV

$33,3900
+$0,38000
(+1,15 %)
Динамика цены за 24 часа
USDUSD
Какой у вас прогноз для BSV сегодня?
Дайте ваш рыночный прогноз: поставьте палец вверх, если ожидаете роста курса этой криптовалюты, или палец вниз, если ожидаете падения.
Проголосуйте, чтобы посмотреть результаты
Начните путешествие в мир криптовалют
Начните путешествие в мир криптовалют
Быстрее, лучше, эффективнее обычной криптобиржи

Рыночные данные Bitcoin SV

Рыночная капитализация
Рыночная капитализация рассчитывается путем умножения объема криптовалюты в обращении на текущий курс.
Рыночная капитализация = объем в обращении × цена последней сделки
Объем в обращении
Общая сумма этой криптовалюты в открытом доступе на рынке.
Рейтинг капитализации
Место криптовалюты в рейтинге по рыночной капитализации.
Рекордная цена
Макс. цена криптовалюты, зафиксированная в истории сделок.
Исторический минимум
Минимальная цена криптовалюты, зафиксированная в истории сделок.
Рыночная капитализация
$663,53M
Объем в обращении
19 872 212 BSV
21 000 000 BSV
: 94,62 %
Рейтинг капитализации
72
Аудиты
CertiK
Последний аудит: 29 дек. 2021 г., (UTC+8)
Максимум за 24 ч
$33,6600
Минимум за 24 ч
$31,9900
Рекордная цена
$492,79
-93,23 % (-$459,40)
Последнее обновление: 17 апр. 2021 г., (UTC+8)
Исторический минимум
$15,7000
+112,67 % (+$17,6900)
Последнее обновление: 10 июн. 2023 г., (UTC+8)
Следующая информация получена от .
Jack C. Liu
Пользователь Jack C. Liu сделал репост
Randy
Randy
BSV был худшей инвестицией в 21 веке
Показать оригинал
8,75 тыс.
106
PANews
PANews
1. Введение: Расширение – это вечное предложение, а параллелизм – это окончательное поле битвы С момента рождения биткоина система блокчейн всегда сталкивалась с неизбежной основной проблемой: масштабированием. Биткоин обрабатывает менее 10 транзакций в секунду, а Ethereum изо всех сил пытается преодолеть узкое место производительности в десятки транзакций в секунду (транзакций в секунду), что особенно громоздко в традиционном мире Web2, который часто составляет десятки тысяч транзакций в секунду. Что еще более важно, это не простая проблема, которую можно решить путем «добавления серверов», а системное ограничение, глубоко укоренившееся в базовом консенсусе и структурном дизайне блокчейна — то есть в невозможном треугольнике блокчейна, где «децентрализация, безопасность и масштабируемость» не могут быть объединены. За последнее десятилетие мы стали свидетелями бесчисленных попыток расширения. От войны за масштабирование биткоина до видения шардинга Ethereum, от каналов состояний и плазмы до роллапов и модульных блокчейнов, от выполнения вне сети на уровне 2 до структурного рефакторинга доступности данных — вся отрасль встала на путь масштабирования, полного инженерного воображения. Будучи наиболее широко принятой парадигмой масштабирования, роллап достиг цели значительного увеличения TPS при одновременном снижении нагрузки на основную цепочку и сохранении безопасности Ethereum. Но это не затрагивает реальных пределов базовой «одноцепочечной производительности» блокчейна, особенно на уровне выполнения, который представляет собой пропускную способность самого блока — все еще ограничен древней парадигмой обработки последовательных вычислений в цепочке. Из-за этого параллельные вычисления в цепочке постепенно вошли в сферу зрения отрасли. В отличие от офчейн-масштабирования и кроссчейн-распределения, внутричейн-параллелизм пытается полностью перестроить механизм выполнения, сохраняя при этом одноцепочечную атомарность и интегрированную структуру, а также модернизирует блокчейн от однопоточного режима «последовательного выполнения одной транзакции за другой» до высокопараллельной вычислительной системы «многопоточность + конвейер + планирование зависимостей» под руководством современных операционных систем и процессоров. Такой путь может не только привести к стократному увеличению пропускной способности, но и стать ключевой предпосылкой для взрыва приложений смарт-контрактов. На самом деле, в вычислительной парадигме Web2 однопоточные вычисления уже давно устранены современными аппаратными архитектурами и заменены бесконечным потоком моделей оптимизации, таких как параллельное программирование, асинхронное планирование, пулы потоков и микросервисы. Блокчейн, будучи более примитивной и консервативной вычислительной системой с чрезвычайно высокими требованиями к определенности и проверяемости, так и не смог в полной мере использовать эти идеи параллельных вычислений. Это одновременно и ограничение, и возможность. Новые цепочки, такие как Solana, Sui и Aptos, первыми начали это исследование, внедрив параллелизм на архитектурном уровне. Новые проекты, такие как Monad и MegaETH, еще больше подняли параллелизм в цепочке до прорывов в глубоких механизмах, таких как выполнение конвейера, оптимистичный параллелизм и асинхронное управление сообщениями, демонстрируя характеристики, которые становятся все ближе и ближе к современным операционным системам. Можно сказать, что параллельные вычисления — это не только «метод оптимизации производительности», но и поворотный момент в парадигме модели исполнения блокчейна. Он бросает вызов фундаментальным шаблонам выполнения смарт-контрактов и переопределяет базовую логику упаковки транзакций, доступа к состоянию, отношений вызовов и структуры хранилища. Если роллап — это «перевод транзакций на выполнение вне сети», то ончейн-параллелизм — это «построение суперкомпьютерных ядер в цепочке», и его цель — не просто повысить пропускную способность, а обеспечить по-настоящему устойчивую инфраструктурную поддержку для будущих нативных приложений Web3 (высокочастотная торговля, игровые движки, выполнение моделей искусственного интеллекта, ончейн-социальные сети и т. д.). После того как траектория свертывания постепенно становится однородной, внутрицепочечный параллелизм незаметно становится решающей переменной нового цикла конкуренции уровня 1. Производительность — это уже не просто «быстрее», а возможность поддерживать весь мир разнородных приложений. Это не только техническая гонка, но и битва парадигм. Следующее поколение платформ суверенного исполнения в мире Web3, вероятно, появится из этой внутрицепочечной параллельной борьбы. 2. Панорама парадигмы расширения: пять типов маршрутов, каждый со своим акцентом Расширение производственных мощностей, как одна из самых важных, устойчивых и сложных тем в эволюции технологии публичных сетей, привело к появлению и эволюции почти всех основных технологических путей за последнее десятилетие. Начав с битвы за размер блока биткоина, это техническое соревнование на тему «как заставить цепочку работать быстрее» в конечном итоге разделилось на пять основных маршрутов, каждый из которых разрезает узкое место под разным углом, со своей собственной технической философией, сложностью посадки, моделью риска и применимыми сценариями. Первый путь — это наиболее простое масштабирование в цепочке, что означает увеличение размера блока, сокращение времени блока или повышение вычислительной мощности за счет оптимизации структуры данных и механизма консенсуса. Этот подход был в центре внимания дебатов о масштабировании биткоина, что привело к появлению форков «больших блоков», таких как BCH и BSV, а также повлияло на идеи дизайна ранних высокопроизводительных публичных сетей, таких как EOS и NEO. Преимущество такого рода маршрута заключается в том, что он сохраняет простоту одноцепочечной согласованности, которую легко понять и развернуть, но также очень легко коснуться системного верхнего предела, такого как риск централизации, растущие эксплуатационные расходы узла и повышенная сложность синхронизации, поэтому он больше не является основным основным решением в сегодняшнем дизайне, а стал скорее вспомогательным сочетанием других механизмов. Второй тип маршрута — это off-chain scaling, который представлен каналами состояния и сайдчейнами. Основная идея этого типа пути заключается в том, чтобы переместить большую часть транзакционной активности за пределы цепи и записать только конечный результат в основную цепочку, которая выступает в качестве конечного расчетного уровня. С точки зрения технической философии он близок к асинхронной архитектуре Web2 — постарайтесь оставить тяжелую обработку транзакций на периферии, а основная цепочка будет выполнять минимальную доверенную проверку. Хотя теоретически эта идея может быть бесконечно масштабируемой, модель доверия, безопасность средств и сложность взаимодействия транзакций вне сети ограничивают ее применение. Например, несмотря на то, что Lightning Network имеет четкое позиционирование финансовых сценариев, масштабы экосистемы никогда не взрывались. Тем не менее, несколько конструкций на основе сайдчейна, таких как Polygon POS, не только имеют высокую пропускную способность, но и обнажают недостатки сложного наследования безопасности основной цепи. Третий тип маршрута является наиболее популярным и широко используемым сверточным маршрутом уровня 2. Этот метод напрямую не изменяет саму основную цепочку, а масштабируется за счет механизма выполнения off-chain и on-chain верификации. Optimistic Rollup и ZK Rollup имеют свои преимущества: первый быстро внедряется и хорошо совместим, но у него есть проблемы с задержкой периода вызова и механизмом защиты от мошенничества; Последний обладает высокой безопасностью и хорошими возможностями сжатия данных, но сложен в разработке и не совместим с EVM. Независимо от того, какой это тип роллапа, его суть заключается в том, чтобы передать мощности исполнения на аутсорсинг, сохраняя при этом данные и верификацию на основной цепочке, достигая относительного баланса между децентрализацией и высокой производительностью. Быстрый рост таких проектов, как Arbitrum, Optimism, zkSync и StarkNet, доказывает целесообразность этого пути, но он также обнажает среднесрочные узкие места, такие как чрезмерная зависимость от доступности данных (DA), высокие затраты и фрагментированный опыт разработки. Четвертый тип маршрута — это модульная архитектура блокчейна, появившаяся в последние годы, такая как Celestia, Avail, EigenLayer и т.д. Модульная парадигма выступает за полное разъединение основных функций блокчейна — исполнения, консенсуса, доступности данных и расчетов — несколькими специализированными цепочками для выполнения различных функций, а затем их объединение в масштабируемую сеть с кроссчейн-протоколом. На это направление сильно влияет модульная архитектура операционной системы и концепция компонуемости облачных вычислений, преимущество которой заключается в возможности гибкой замены компонентов системы и значительном повышении эффективности в конкретных областях, таких как DA. Тем не менее, проблемы также очень очевидны: стоимость синхронизации, верификации и взаимного доверия между системами после разделения модулей чрезвычайно высока, экосистема разработчиков крайне фрагментирована, а требования к средне- и долгосрочным стандартам протоколов и кроссчейн-безопасности намного выше, чем при традиционном проектировании цепей. По сути, эта модель больше не строит «цепь», а строит «цепную сеть», которая выдвигает беспрецедентный порог для общего понимания архитектуры, эксплуатации и обслуживания. Последний тип маршрута, который является предметом последующего анализа в данной статье, — это путь оптимизации внутрицепочечных параллельных вычислений. В отличие от первых четырех типов «горизонтального дробления», которые в основном осуществляют «горизонтальное расщепление» со структурного уровня, параллельные вычисления делают акцент на «вертикальном апгрейдинге», то есть параллельная обработка атомарных транзакций реализуется путем изменения архитектуры исполняющего движка в рамках единой цепочки. Это требует переписывания логики планирования виртуальных машин и внедрения полного набора современных механизмов планирования компьютерных систем, таких как анализ зависимостей транзакций, прогнозирование конфликтов состояний, управление параллелизмом и асинхронные вызовы. Solana — первый проект, в котором концепция параллельной виртуальной машины реализована в системе на уровне цепочки, которая реализует многоядерное параллельное выполнение через суждение о конфликте транзакций на основе модели учетной записи. Новое поколение проектов, таких как Monad, Sei, Fuel, MegaETH и т. д., еще больше пытается внедрить передовые идеи, такие как выполнение конвейера, оптимистичный параллелизм, разделение хранилища и параллельное разделение для создания высокопроизводительных исполнительных ядер, подобных современным процессорам. Основное преимущество этого направления заключается в том, что ему не нужно полагаться на многоцепочечную архитектуру для достижения прорыва в лимите пропускной способности, и в то же время обеспечивается достаточная вычислительная гибкость для выполнения сложных смарт-контрактов, что является важной технической предпосылкой для будущих сценариев применения, таких как AI Agent, крупномасштабные сетевые игры и высокочастотные деривативы. Если посмотреть на вышеупомянутые пять типов путей масштабирования, то за ними на самом деле стоит систематический компромисс между производительностью, компонуемостью, безопасностью и сложностью разработки блокчейна. Роллап силен в аутсорсинге консенсуса и безопасном наследовании, модульность выделяет структурную гибкость и повторное использование компонентов, масштабирование вне сети пытается прорваться через узкое место основной цепи, но стоимость доверия высока, а внутричейн-параллелизм фокусируется на фундаментальном обновлении уровня исполнения, пытаясь приблизиться к пределу производительности современных распределенных систем, не нарушая согласованность цепочки. Невозможно для каждого пути решить все проблемы, но именно эти направления в совокупности формируют панораму обновления вычислительной парадигмы Web3, а также предоставляют разработчикам, архитекторам и инвесторам чрезвычайно богатые стратегические возможности. Подобно тому, как операционная система перешла от одноядерной к многоядерной, а базы данных эволюционировали от последовательных индексов к параллельным транзакциям, расширение Web3 в конечном итоге приведет к эре высокопараллельного выполнения. В нашу эпоху производительность — это уже не просто гонка на скорости цепи, а всестороннее воплощение лежащей в основе философии проектирования, глубокого понимания архитектуры, сотрудничества программного и аппаратного обеспечения и управления системой. И внутрицепной параллелизм может стать конечным полем битвы в этой долгосрочной войне. 3. Граф классификации параллельных вычислений: пять путей от аккаунта к инструкции В контексте непрерывной эволюции технологии масштабирования блокчейна параллельные вычисления постепенно стали основным путем для прорывов в производительности. В отличие от горизонтального разделения структурного уровня, сетевого уровня или уровня доступности данных, параллельные вычисления представляют собой глубокий майнинг на уровне исполнения, который связан с самой низкой логикой эффективности работы блокчейна и определяет скорость отклика и вычислительную мощность блокчейн-системы в условиях высокого параллелизма и многотипных сложных транзакций. Начав с модели выполнения и рассмотрев развитие этой технологической линии, мы можем отсортировать четкую классификационную карту параллельных вычислений, которую можно условно разделить на пять технических путей: параллелизм на уровне учетной записи, параллелизм на уровне объекта, параллелизм на уровне транзакций, параллелизм на уровне виртуальной машины и параллелизм на уровне инструкций. Эти пять типов путей, от крупнозернистых до мелкозернистых, представляют собой не только непрерывный процесс уточнения параллельной логики, но и путь возрастающей сложности системы и сложности планирования. Самый ранний параллелизм на уровне счетов — это парадигма, представленная Solana. Эта модель основана на схеме разделения счета и состояния и определяет наличие конфликтующих отношений путем статического анализа набора счетов, участвующих в транзакции. Если две транзакции обращаются к набору учетных записей, которые не перекрываются друг с другом, они могут выполняться одновременно на нескольких ядрах. Этот механизм идеально подходит для работы с хорошо структурированными транзакциями с четкими входами и выходами, особенно для программ с предсказуемыми путями, таких как DeFi. Тем не менее, его естественное предположение заключается в том, что доступ к учетной записи предсказуем, а зависимость от состояния может быть статически выведена, что делает его склонным к консервативному исполнению и снижению параллелизма перед лицом сложных смарт-контрактов (таких как динамическое поведение, такое как цепные игры и агенты искусственного интеллекта). Кроме того, перекрестная зависимость между счетами также значительно ослабляет параллельную доходность в некоторых сценариях высокочастотной торговли. В этом отношении среда выполнения Solana высоко оптимизирована, но ее основная стратегия планирования по-прежнему ограничена детализацией учетных записей. Дальнейшая доработка на основе модели аккаунта, мы выходим на технический уровень объектного параллелизма. Параллелизм на уровне объектов вводит семантическую абстракцию ресурсов и модулей с параллельным планированием в более мелких единицах «объектов состояния». Aptos и Sui являются важными исследователями в этом направлении, особенно последний, который определяет владение и вариативность ресурсов во время компиляции с помощью системы линейных типов языка Move, что позволяет среде выполнения точно контролировать конфликты доступа к ресурсам. По сравнению с параллелизмом на уровне учетных записей, этот метод является более универсальным и масштабируемым, может охватывать более сложную логику чтения и записи состояний и, естественно, обслуживает крайне разнородные сценарии, такие как игры, социальные сети и искусственный интеллект. Тем не менее, параллелизм на уровне объектов также приводит к более высоким языковым барьерам и сложности разработки, и Move не является прямой заменой Solidity, а высокая стоимость экологического переключения ограничивает популярность его параллельной парадигмы. Дальнейший параллелизм на уровне транзакций — это направление, которое исследуется в новом поколении высокопроизводительных цепочек, представленных Monad, Sei и Fuel. Вместо того чтобы рассматривать состояния или учетные записи как наименьшую единицу параллелизма, путь строится вокруг графа зависимостей вокруг всей транзакции. Он рассматривает транзакции как атомарные единицы операции, строит графы транзакций (Transaction DAGs) с помощью статического или динамического анализа и полагается на планировщики для параллельного выполнения потока. Такая конструкция позволяет системе максимально эффективно использовать параллелизм интеллектуального анализа данных без необходимости полного понимания базовой структуры состояния. Monad особенно привлекателен тем, что сочетает в себе современные технологии ядра СУБД, такие как оптимистичное управление параллелизмом (OCC), планирование параллельных конвейеров и внеочередное выполнение, приближая выполнение цепочки к парадигме «планировщика графических процессоров». На практике этот механизм требует чрезвычайно сложных менеджеров зависимостей и детекторов конфликтов, а сам планировщик также может стать узким местом, но его потенциальная пропускная способность намного выше, чем у учетной записи или объектной модели, что делает его наиболее теоретической силой в текущем треке параллельных вычислений. С другой стороны, параллелизм на уровне виртуальной машины встраивает возможности параллельного выполнения непосредственно в базовую логику планирования инструкций виртуальной машины, стремясь полностью преодолеть ограничения, присущие выполнению последовательностей EVM. В качестве «эксперимента с супервиртуальными машинами» в экосистеме Ethereum MegaETH пытается перепроектировать EVM для поддержки многопоточного параллельного выполнения кода смарт-контракта. Базовый уровень позволяет каждому контракту выполняться независимо друг от друга в различных контекстах выполнения с помощью таких механизмов, как сегментированное выполнение, сегментация состояния и асинхронный вызов, и обеспечивает возможную согласованность с помощью параллельного уровня синхронизации. Самая сложная часть этого подхода заключается в том, что он должен быть полностью совместим с существующей семантикой поведения EVM, и в то же время трансформировать всю среду выполнения и механизм газа, чтобы плавно перенести экосистему Solidity на параллельный фреймворк. Проблема заключается не только в глубине технологического стека, но и в принятии значительных изменений протокола в политической структуре L1 Ethereum. Но в случае успеха MegaETH обещает стать «революцией многоядерных процессоров» в пространстве EVM. Последний тип пути — это параллелизм на уровне инструкций, который является наиболее детальным и имеет самый высокий технический порог. Идея основана на неупорядоченном выполнении и конвейерах инструкций современных процессоров. Эта парадигма утверждает, что, поскольку каждый смарт-контракт в конечном итоге компилируется в инструкции байт-кода, вполне возможно планировать и анализировать каждую операцию и перестраивать ее параллельно таким же образом, как процессор выполняет набор инструкций x86. Команда Fuel изначально внедрила в свою FuelVM переупорядочиваемую модель выполнения на уровне инструкций, и в долгосрочной перспективе, как только механизм выполнения блокчейна реализует предиктивное выполнение и динамическую перестановку зависимых инструкций, его параллелизм достигнет теоретического предела. Такой подход может даже вывести совместное проектирование блокчейна и аппаратного обеспечения на совершенно новый уровень, сделав цепочку настоящим «децентрализованным компьютером», а не просто «распределенным реестром». Конечно, этот путь все еще находится в теоретической и экспериментальной стадии, а соответствующие планировщики и механизмы проверки безопасности еще не созрели, но он указывает на конечную границу будущего параллельных вычислений. Таким образом, пять путей — учетная запись, объект, транзакция, виртуальная машина и инструкция — составляют спектр развития внутрицепочечных параллельных вычислений, от статической структуры данных до механизма динамического планирования, от прогнозирования доступа к состоянию до перегруппировки на уровне инструкций, каждый шаг параллельной технологии означает значительное увеличение сложности системы и порога разработки. Но в то же время они также знаменуют собой смену парадигмы в вычислительной модели блокчейна — от традиционного консенсусного реестра с полной последовательностью к высокопроизводительной, предсказуемой и диспетчеризируемой среде распределенного выполнения. Это не только догоняющее достижение эффективности облачных вычислений Web2, но и глубокая концепция конечной формы «компьютера на блокчейне». Выбор параллельных путей для различных публичных цепочек также определит предел носителя их будущих прикладных экосистем, а также их основную конкурентоспособность в таких сценариях, как AI Agent, сетевые игры и высокочастотная торговля в сети. В-четвертых, объясняются два основных направления: Monad против MegaETH Среди множества путей эволюции параллельных вычислений двумя основными техническими путями с наибольшей направленностью, самым высоким голосом и наиболее полным повествованием на текущем рынке, несомненно, являются «построение параллельной вычислительной цепочки с нуля», представленное Monad, и «параллельная революция внутри EVM», представленная MegaETH. Эти два направления являются не только самыми интенсивными направлениями исследований и разработок для современных инженеров криптографических примитивов, но и самыми решающими полярными символами в текущей гонке производительности компьютеров Web3. Разница между ними заключается не только в исходной точке и стиле технической архитектуры, но и в экологических объектах, которые они обслуживают, стоимости миграции, философии реализации и будущем стратегическом пути, стоящем за ними. Они представляют собой параллельную парадигмальную конкуренцию между «реконструктивизмом» и «совместимостью» и оказали глубокое влияние на представление рынка об окончательной форме высокопроизводительных цепей. Monad является «вычислительным фундаменталистом» до мозга костей, и его философия дизайна не предназначена для совместимости с существующими EVM, а скорее для того, чтобы переосмыслить способ работы механизмов выполнения блокчейна под капотом, черпая вдохновение в современных базах данных и высокопроизводительных многоядерных системах. Ее основная технологическая система опирается на зрелые механизмы в области баз данных, такие как оптимистичный контроль параллелизма, планирование DAG транзакций, внеочередное выполнение и конвейерное исполнение, направленные на увеличение производительности обработки транзакций в цепочке до порядка миллионов транзакций в секунду. В архитектуре Monad выполнение и упорядочивание транзакций полностью разъединяются, и система сначала строит граф зависимостей транзакций, а затем передает его планировщику для параллельного выполнения. Все транзакции обрабатываются как атомарные единицы транзакций с явными наборами чтения и записи и моментальными снимками состояния, а планировщики выполняют оптимистично на основе графов зависимостей, откатывая и повторно выполняя при возникновении конфликтов. Этот механизм чрезвычайно сложен с точки зрения технической реализации, требуя построения стека выполнения, аналогичного стеку современного менеджера транзакций базы данных, а также внедрения таких механизмов, как многоуровневое кэширование, предварительная выборка, параллельная валидация и т. д., для сжатия задержки окончательной фиксации состояния, но теоретически он может раздвинуть предел пропускной способности до высот, которые не могут быть представлены текущей цепочкой. Что еще более важно, Monad не отказалась от совместимости с EVM. Он использует промежуточный уровень, аналогичный "Solidity-Compatible Intermediate Language", для поддержки разработчиков в написании контрактов в синтаксисе Solidity, и в то же время выполняет промежуточную языковую оптимизацию и планирование распараллеливания в механизме выполнения. Эта стратегия проектирования «поверхностной совместимости и нижнего рефакторинга» не только сохраняет дружелюбие экологических разработчиков Ethereum, но и в наибольшей степени высвобождает базовый потенциал исполнения, что является типичной технической стратегией «проглатывания EVM и последующей его деконструкции». Это также означает, что как только Monad будет запущена, она станет не только суверенной цепью с экстремальной производительностью, но и идеальным уровнем исполнения для свертываемых сетей уровня 2, и даже «подключаемым высокопроизводительным ядром» для других модулей выполнения цепочки в долгосрочной перспективе. С этой точки зрения, Monad — это не только технический путь, но и новая логика проектирования системного суверенитета, которая выступает за «модульность-производительность-повторное использование» уровня выполнения, чтобы создать новый стандарт для межцепочечных совместных вычислений. В отличие от позиции Monad как «нового строителя мира», MegaETH — это совершенно противоположный тип проекта, который решает начать с существующего мира Ethereum и достичь значительного повышения эффективности исполнения с минимальными затратами на изменения. MegaETH не отменяет спецификацию EVM, а скорее стремится встроить мощь параллельных вычислений в механизм исполнения существующей EVM, создавая будущую версию «многоядерного EVM». Обоснование заключается в полном рефакторинге текущей модели выполнения инструкций EVM с такими возможностями, как изоляция на уровне потока, асинхронное выполнение на уровне контракта и обнаружение конфликтов доступа к состоянию, что позволяет нескольким смарт-контрактам одновременно выполняться в одном блоке и в конечном итоге объединять изменения состояния. Эта модель требует, чтобы разработчики добились значительного прироста производительности от одного и того же контракта, развернутого в цепочке MegaETH, без изменения существующих контрактов Solidity, использования новых языков или наборов инструментов. Этот путь «консервативной революции» чрезвычайно привлекателен, особенно для экосистемы Ethereum L2, поскольку он обеспечивает идеальный путь к безболезненному повышению производительности без необходимости миграции синтаксиса. Основной прорыв MegaETH заключается в многопоточном механизме планирования виртуальных машин. Традиционные EVM используют многоуровневую однопоточную модель выполнения, в которой каждая инструкция выполняется линейно, а обновления состояния должны происходить синхронно. MegaETH нарушает этот шаблон и вводит асинхронный стек вызовов и механизм изоляции контекста выполнения, чтобы добиться одновременного выполнения «параллельных контекстов EVM». Каждый контракт может вызывать свою собственную логику в отдельном потоке, и все потоки будут одинаково обнаруживать и конвергировать состояние через уровень параллельной фиксации, когда состояние будет окончательно отправлено. Этот механизм очень похож на многопоточную модель JavaScript современных браузеров (Web Workers + Shared Memory + Lock-Free Data), которая сохраняет детерминированность поведения основного потока и вводит высокопроизводительный механизм планирования, который является асинхронным в фоновом режиме. На практике эта конструкция также чрезвычайно удобна для сборщиков блоков и поисковиков и может оптимизировать сортировку Mempool и пути захвата MEV в соответствии с параллельными стратегиями, формируя замкнутый цикл экономических преимуществ на уровне выполнения. Что еще более важно, MegaETH предпочитает быть глубоко привязанным к экосистеме Ethereum, и его основным местом приземления в будущем, вероятно, будет сеть EVM L2 Rollup, такая как Optimism, Base или Arbitrum Orbit chain. После внедрения в больших масштабах он может достичь почти 100-кратного повышения производительности на вершине существующего технологического стека Ethereum без изменения семантики контрактов, модели состояния, газовой логики, методов вызова и т. д., что делает его привлекательным направлением технологического обновления для консерваторов EVM. Парадигма MegaETH такова: пока вы все еще делаете что-то на Ethereum, я позволю вашей вычислительной производительности взлететь. С точки зрения реализма и инженерии его легче реализовать, чем Monad, и он больше соответствует итеративному пути основных проектов DeFi и NFT, что делает его кандидатом на экологическую поддержку в краткосрочной перспективе. В каком-то смысле два пути Monad и MegaETH — это не только две реализации параллельных технологических путей, но и классическое противостояние между «рефакторингом» и «совместимостью» в пути разработки блокчейна: первый стремится к прорыву парадигмы и реконструирует всю логику от виртуальных машин до управления базовым состоянием для достижения максимальной производительности и архитектурной пластичности; Последний преследует постепенную оптимизацию, доводя традиционные системы до предела, соблюдая при этом существующие экологические ограничения, тем самым минимизируя затраты на миграцию. Между ними нет абсолютных преимуществ или недостатков, но они служат разным группам разработчиков и видению экосистемы. Monad больше подходит для создания новых систем с нуля, цепных игр, стремящихся к экстремальной пропускной способности, агентов ИИ и модульных цепочек выполнения. MegaETH, с другой стороны, больше подходит для L2-проектов, DeFi-проектов и инфраструктурных протоколов, которые хотят добиться повышения производительности с минимальными изменениями в разработке. Они похожи на высокоскоростные поезда на новом пути, переосмысленные с рельсов, электросети на кузов автомобиля, только чтобы достичь беспрецедентной скорости и впечатлений; Другой пример — установка турбин на существующих автомагистралях, улучшение планирования полос движения и конструкции двигателя, что позволяет транспортным средствам двигаться быстрее, не выезжая за пределы привычной дорожной сети. Эти два варианта могут закончиться одним и тем же образом: на следующем этапе модульной архитектуры блокчейна Monad может стать модулем «исполнение как услуга» для Rollups, а MegaETH может стать плагином для ускорения производительности для основных L2. В конечном итоге они могут сойтись, чтобы сформировать два крыла высокопроизводительного движка распределенного исполнения в будущем мире Web3. 5. Будущие возможности и проблемы параллельных вычислений По мере того, как параллельные вычисления переходят от бумажного проектирования к реализации в блокчейне, потенциал, который они раскрывают, становится все более конкретным и измеримым. С одной стороны, мы видим, что новые парадигмы разработки и бизнес-модели начали пересматривать «производительность в цепочке»: более сложная логика игры в цепочке, более реалистичный жизненный цикл агента ИИ, более широкий протокол обмена данными в реальном времени, более захватывающий интерактивный опыт и даже операционная система для совместной работы в сети Super App — все это меняется от «можем ли мы это сделать» к «насколько хорошо мы можем это сделать». С другой стороны, то, что действительно стимулирует переход к параллельным вычислениям, — это не только линейное повышение производительности системы, но и структурное изменение когнитивных границ разработчиков и затраты на экологическую миграцию. Подобно тому, как внедрение в Ethereum механизма полного контракта по Тьюрингу привело к многомерному взрыву DeFi, NFT и DAO, «асинхронная реконструкция между состоянием и инструкцией», вызванная параллельными вычислениями, также порождает новую модель мира в блокчейне, которая является не только революцией в эффективности выполнения, но и очагом инноваций в структуре продукта. Прежде всего, с точки зрения возможностей, самая прямая выгода – это «поднятие потолка заявок». Большинство текущих приложений DeFi, игр и социальных приложений ограничены узкими местами состояния, затратами на газ и задержкой и не могут по-настоящему обеспечить высокочастотные взаимодействия в цепочке в больших масштабах. Если взять в качестве примера цепные игры, то GameFi с реальной обратной связью по движению, высокочастотной синхронизацией поведения и логикой боя в реальном времени почти не существует, потому что линейное исполнение традиционной EVM не может поддерживать широковещательное подтверждение десятков изменений состояния в секунду. С помощью параллельных вычислений с помощью таких механизмов, как DAG транзакций и асинхронные контексты на уровне контрактов, можно создавать цепочки с высоким уровнем параллелизма, а также гарантировать детерминированные результаты выполнения за счет согласованности моментальных снимков, чтобы достичь структурного прорыва в «игровом движке на цепочке». Аналогичным образом, развертывание и работа агентов ИИ также будут значительно улучшены за счет параллельных вычислений. В прошлом мы, как правило, запускали агентов ИИ вне сети и загружали результаты их поведения только в ончейн-контракты, но в будущем ончейн может поддерживать асинхронное сотрудничество и обмен состоянием между несколькими объектами ИИ за счет параллельного планирования транзакций, чтобы по-настоящему реализовать автономную логику агента в реальном времени. Параллельные вычисления станут инфраструктурой для этого «контракта, управляемого поведением», что приведет Web3 от «транзакции как актива» к новому миру «взаимодействия в качестве агента». Во-вторых, набор инструментов разработчика и уровень абстракции виртуальной машины также были структурно изменены из-за распараллеливания. Традиционная парадигма разработки Solidity основана на модели серийного мышления, где разработчики привыкли проектировать логику как однопоточное изменение состояния, но в архитектурах параллельных вычислений разработчики будут вынуждены думать о конфликтах наборов чтения и записи, политиках изоляции состояний, атомарности транзакций и даже внедрять архитектурные шаблоны на основе очередей сообщений или конвейеров состояний. Этот скачок в когнитивной структуре также привел к быстрому росту нового поколения цепочек инструментов. Например, параллельные фреймворки смарт-контрактов, поддерживающие объявления транзакционных зависимостей, компиляторы оптимизации на основе IR и параллельные отладчики, поддерживающие моделирование моментальных снимков транзакций, станут очагами взрывного развития инфраструктуры в новом цикле. В то же время непрерывная эволюция модульных блокчейнов также привела к отличной посадке для параллельных вычислений: Monad может быть вставлен в L2 Rollup в качестве модуля исполнения, MegaETH может быть развернут в качестве замены EVM для основных цепочек, Celestia обеспечивает поддержку уровня доступности данных, а EigenLayer обеспечивает децентрализованную сеть валидаторов, тем самым формируя высокопроизводительную интегрированную архитектуру от базовых данных до логики выполнения. Тем не менее, развитие параллельных вычислений — это непростой путь, и проблемы еще более структурны, и их трудно преодолеть, чем возможности. С одной стороны, основные технические трудности заключаются в «гарантии согласованности государственного параллелизма» и «стратегии урегулирования конфликтов транзакций». В отличие от баз данных вне сети, ончейн не терпит произвольной степени отката транзакций или отзыва состояния, а любые конфликты выполнения необходимо моделировать заранее или точно контролировать во время события. Это означает, что параллельный планировщик должен обладать сильными возможностями построения графа зависимостей и прогнозирования конфликтов, и в то же время проектировать эффективный механизм отказоустойчивости оптимистичного выполнения, в противном случае система подвержена «шторму повторных попыток одновременного отказа» при высокой нагрузке, который не только увеличивается, но и уменьшается, и даже вызывает нестабильность цепочки. Более того, текущая модель безопасности многопоточной среды выполнения еще не полностью сформирована, например, точность механизма изоляции состояния между потоками, новое использование атак повторного входа в асинхронных контекстах и взрывной рост числа межпоточных вызовов контрактов — все это новые проблемы, требующие решения. Более коварные вызовы возникают из-за экологических и психологических аспектов. От того, готовы ли разработчики перейти на новую парадигму, смогут ли они овладеть методами проектирования параллельных моделей и готовы ли они отказаться от некоторой удобочитаемости и проверяемости контрактов ради выигрыша в производительности — вот ключ к тому, смогут ли параллельные вычисления сформировать экологическую потенциальную энергию. За последние несколько лет мы видели, как ряд цепочек с превосходной производительностью, но без поддержки разработчиков, постепенно замолкали, такие как NEAR, Avalanche и даже некоторые цепочки Cosmos SDK с гораздо лучшей производительностью, чем EVM, и их опыт напоминает нам, что без разработчиков нет экосистемы; Без экологии, какими бы хорошими ни были характеристики, это просто воздушный замок. Таким образом, проекты параллельных вычислений должны не только создавать самый мощный двигатель, но и прокладывать наиболее мягкий путь экологического перехода, чтобы «производительность была нестандартной», а не «производительность была когнитивным порогом». В конечном счете, будущее параллельных вычислений — это одновременно триумф системной инженерии и испытание для экодизайна. Это заставит нас пересмотреть вопрос о том, «в чем суть цепочки»: это децентрализованная расчетная машина или глобально распределенный оркестратор состояний в реальном времени? Если это так, то возможности пропускной способности состояния, параллелизма транзакций и отзывчивости контрактов, которые ранее рассматривались как «технические детали цепочки», в конечном итоге станут основными показателями, определяющими ценность цепочки. Парадигма параллельных вычислений, которая действительно завершает этот переход, также станет наиболее основными и наиболее сложными инфраструктурными примитивами в этом новом цикле, и ее влияние выйдет далеко за рамки технического модуля и может стать поворотным моментом в общей вычислительной парадигме Web3. 6. Заключение: являются ли параллельные вычисления лучшим путем для нативного масштабирования Web3? Из всех путей, которые исследуют границы производительности Web3, параллельные вычисления не самые простые в реализации, но они могут быть наиболее близкими к сути блокчейна. Он не мигрирует за пределы сети и не жертвует децентрализацией в обмен на пропускную способность, но пытается реконструировать саму модель выполнения в атомарности и детерминизме цепочки, от уровня транзакций, уровня контрактов и уровня виртуальных машин до корня узкого места производительности. Этот «родной для цепочки» метод масштабирования не только сохраняет основную модель доверия блокчейна, но и сохраняет устойчивую производительность для более сложных приложений в цепочке в будущем. Его сложность заключается в структуре, а его очарование заключается в строении. Если модульный рефакторинг – это «архитектура цепочки», то рефакторинг параллельных вычислений – это «душа цепочки». Возможно, это не короткий путь к таможенному оформлению, но, вероятно, это будет единственное устойчивое положительное решение в долгосрочной эволюции Web3. Мы являемся свидетелями архитектурного перехода от одноядерных процессоров к многоядерным/многопоточным ОС, и появление нативных операционных систем Web3 может быть скрыто в этих параллельных экспериментах в цепочке.
Показать оригинал
105,95 тыс.
0
Odaily
Odaily
1. Введение: Расширение – это вечное предложение, а параллелизм – это окончательное поле битвы С момента рождения биткоина система блокчейн всегда сталкивалась с неизбежной основной проблемой: масштабированием. Биткоин обрабатывает менее 10 транзакций в секунду, а Ethereum изо всех сил пытается преодолеть узкое место производительности в десятки транзакций в секунду (транзакций в секунду), что особенно громоздко в традиционном мире Web2, где часто используются десятки тысяч транзакций в секунду. Что еще более важно, это не простая проблема, которую можно решить путем «добавления серверов», а системное ограничение, глубоко укоренившееся в базовом консенсусе и структурном дизайне блокчейна — то есть в невозможном треугольнике блокчейна, где «децентрализация, безопасность и масштабируемость» не могут быть объединены. За последнее десятилетие мы стали свидетелями бесчисленных попыток расширения. От войны за масштабирование биткоина до видения шардинга Ethereum, от каналов состояний и плазмы до роллапов и модульных блокчейнов, от выполнения вне сети на уровне 2 до структурного рефакторинга доступности данных — вся отрасль встала на путь масштабирования, полный инженерного воображения. Будучи наиболее широко принятой парадигмой масштабирования, роллап достиг цели значительного увеличения TPS при одновременном снижении нагрузки на основную цепочку и сохранении безопасности Ethereum. Но это не затрагивает реальных пределов базовой «одноцепочечной производительности» блокчейна, особенно на уровне выполнения, который представляет собой пропускную способность самого блока — все еще ограничен древней парадигмой обработки последовательных вычислений в цепочке. Из-за этого параллельные вычисления в цепочке постепенно вошли в сферу зрения отрасли. В отличие от офчейн-масштабирования и кроссчейн-распределения, внутричейн-параллелизм пытается полностью перестроить механизм выполнения, сохраняя при этом одноцепочечную атомарность и интегрированную структуру, а также модернизирует блокчейн от однопоточного режима «последовательного выполнения одной транзакции за другой» до высокопараллельной вычислительной системы «многопоточность + конвейер + планирование зависимостей» под руководством современных операционных систем и процессоров. Такой путь может не только привести к стократному увеличению пропускной способности, но и стать ключевой предпосылкой для взрыва приложений смарт-контрактов. На самом деле, в вычислительной парадигме Web2 однопоточные вычисления уже давно устранены современными аппаратными архитектурами и заменены бесконечным потоком моделей оптимизации, таких как параллельное программирование, асинхронное планирование, пулы потоков и микросервисы. Блокчейн, будучи более примитивной и консервативной вычислительной системой с чрезвычайно высокими требованиями к определенности и проверяемости, так и не смог в полной мере использовать эти идеи параллельных вычислений. Это одновременно и ограничение, и возможность. Новые цепочки, такие как Solana, Sui и Aptos, первыми начали это исследование, внедрив параллелизм на архитектурном уровне. Новые проекты, такие как Monad и MegaETH, еще больше подняли параллелизм в цепочке до прорывов в глубоких механизмах, таких как выполнение конвейера, оптимистичный параллелизм и асинхронное управление сообщениями, демонстрируя характеристики, которые становятся все ближе и ближе к современным операционным системам. Можно сказать, что параллельные вычисления — это не только «метод оптимизации производительности», но и поворотный момент в парадигме модели исполнения блокчейна. Он бросает вызов фундаментальным шаблонам выполнения смарт-контрактов и переопределяет базовую логику упаковки транзакций, доступа к состоянию, отношений вызовов и структуры хранилища. Если роллап — это «перевод транзакций на выполнение вне сети», то ончейн-параллелизм — это «построение суперкомпьютерных ядер в цепочке», и его цель — не просто повысить пропускную способность, а обеспечить по-настоящему устойчивую инфраструктурную поддержку для будущих нативных приложений Web3 (высокочастотная торговля, игровые движки, выполнение моделей искусственного интеллекта, ончейн-социальные сети и т. д.). После того как траектория свертывания постепенно становится однородной, внутрицепочечный параллелизм незаметно становится решающей переменной нового цикла конкуренции уровня 1. Производительность — это уже не просто «быстрее», а возможность поддерживать весь мир разнородных приложений. Это не только техническая гонка, но и битва парадигм. Следующее поколение платформ суверенного исполнения в мире Web3, вероятно, появится из этой внутрицепочечной параллельной борьбы. 2. Панорама парадигмы расширения: пять типов маршрутов, каждый со своим акцентом Расширение производственных мощностей, как одна из самых важных, устойчивых и сложных тем в эволюции технологии публичных сетей, привело к появлению и эволюции почти всех основных технологических путей за последнее десятилетие. Начав с битвы за размер блока биткоина, это техническое соревнование на тему «как заставить цепочку работать быстрее» в конечном итоге разделилось на пять основных маршрутов, каждый из которых разрезает узкое место под разным углом, со своей собственной технической философией, сложностью посадки, моделью риска и применимыми сценариями. Первый путь — это наиболее простое масштабирование в цепочке, что означает увеличение размера блока, сокращение времени блока или повышение вычислительной мощности за счет оптимизации структуры данных и механизма консенсуса. Этот подход был в центре внимания дебатов о масштабировании биткоина, что привело к появлению форков «больших блоков», таких как BCH и BSV, а также повлияло на идеи дизайна ранних высокопроизводительных публичных сетей, таких как EOS и NEO. Преимущество такого рода маршрута заключается в том, что он сохраняет простоту одноцепочечной согласованности, которую легко понять и развернуть, но также очень легко коснуться системного верхнего предела, такого как риск централизации, растущие эксплуатационные расходы узла и повышенная сложность синхронизации, поэтому он больше не является основным основным решением в сегодняшнем дизайне, а стал скорее вспомогательным сочетанием других механизмов. Второй тип маршрута — это off-chain scaling, который представлен каналами состояния и сайдчейнами. Основная идея этого типа пути заключается в том, чтобы переместить большую часть транзакционной активности за пределы цепи и записать только конечный результат в основную цепочку, которая выступает в качестве конечного расчетного уровня. С точки зрения технической философии он близок к асинхронной архитектуре Web2 — постарайтесь оставить тяжелую обработку транзакций на периферии, а основная цепочка будет выполнять минимальную доверенную проверку. Хотя теоретически эта идея может быть бесконечно масштабируемой, модель доверия, безопасность средств и сложность взаимодействия транзакций вне сети ограничивают ее применение. Например, несмотря на то, что Lightning Network имеет четкое позиционирование финансовых сценариев, масштабы экосистемы никогда не взрывались. Тем не менее, несколько конструкций на основе сайдчейна, таких как Polygon POS, не только имеют высокую пропускную способность, но и обнажают недостатки сложного наследования безопасности основной цепи. Третий тип маршрута является наиболее популярным и широко используемым сверточным маршрутом уровня 2. Этот метод напрямую не изменяет саму основную цепочку, а масштабируется за счет механизма выполнения off-chain и on-chain верификации. Optimistic Rollup и ZK Rollup имеют свои преимущества: первый быстро внедряется и хорошо совместим, но у него есть проблемы с задержкой периода вызова и механизмом защиты от мошенничества; Последний обладает высокой безопасностью и хорошими возможностями сжатия данных, но сложен в разработке и не совместим с EVM. Независимо от того, какой это тип роллапа, его суть заключается в том, чтобы передать мощности исполнения на аутсорсинг, сохраняя при этом данные и верификацию на основной цепочке, достигая относительного баланса между децентрализацией и высокой производительностью. Быстрый рост таких проектов, как Arbitrum, Optimism, zkSync и StarkNet, доказывает целесообразность этого пути, но он также обнажает среднесрочные узкие места, такие как чрезмерная зависимость от доступности данных (DA), высокие затраты и фрагментированный опыт разработки. Четвертый тип маршрута — это модульная архитектура блокчейна, появившаяся в последние годы, такая как Celestia, Avail, EigenLayer и т.д. Модульная парадигма выступает за полное разъединение основных функций блокчейна — исполнения, консенсуса, доступности данных и расчетов — несколькими специализированными цепочками для выполнения различных функций, а затем их объединение в масштабируемую сеть с кроссчейн-протоколом. На это направление сильно влияет модульная архитектура операционной системы и компонуемость облачных вычислений, преимущество которых заключается в возможности гибкой замены компонентов системы и значительного повышения эффективности в конкретных областях, таких как DA. Тем не менее, проблемы также очень очевидны: стоимость синхронизации, верификации и взаимного доверия между системами после разделения модулей чрезвычайно высока, экосистема разработчиков крайне фрагментирована, а требования к средне- и долгосрочным стандартам протоколов и кроссчейн-безопасности намного выше, чем при традиционном проектировании цепей. По сути, эта модель больше не строит «цепь», а строит «цепную сеть», которая выдвигает беспрецедентный порог для общего понимания архитектуры, эксплуатации и обслуживания. Последний тип маршрута, который является предметом последующего анализа в данной статье, — это путь оптимизации внутрицепочечных параллельных вычислений. В отличие от первых четырех типов «горизонтального дробления», которые в основном осуществляют «горизонтальное расщепление» со структурного уровня, параллельные вычисления делают акцент на «вертикальном апгрейдинге», то есть параллельная обработка атомарных транзакций реализуется путем изменения архитектуры исполняющего движка в рамках единой цепочки. Это требует переписывания логики планирования виртуальных машин и внедрения полного набора современных механизмов планирования компьютерных систем, таких как анализ зависимостей транзакций, прогнозирование конфликтов состояний, управление параллелизмом и асинхронные вызовы. Solana — первый проект, в котором концепция параллельной виртуальной машины реализована в системе на уровне цепочки, которая реализует многоядерное параллельное выполнение через суждение о конфликте транзакций на основе модели учетной записи. Новое поколение проектов, таких как Monad, Sei, Fuel, MegaETH и т. д., еще больше пытается внедрить передовые идеи, такие как выполнение конвейера, оптимистичный параллелизм, разделение хранилища и параллельное разделение для создания высокопроизводительных исполнительных ядер, подобных современным процессорам. Основное преимущество этого направления заключается в том, что ему не нужно полагаться на многоцепочечную архитектуру для достижения прорыва в лимите пропускной способности, и в то же время обеспечивается достаточная вычислительная гибкость для выполнения сложных смарт-контрактов, что является важной технической предпосылкой для будущих сценариев применения, таких как AI Agent, крупномасштабные сетевые игры и высокочастотные деривативы. Если посмотреть на вышеупомянутые пять типов путей масштабирования, то за ними на самом деле стоит систематический компромисс между производительностью, компонуемостью, безопасностью и сложностью разработки блокчейна. Роллап силен в аутсорсинге консенсуса и безопасном наследовании, модульность выделяет структурную гибкость и повторное использование компонентов, масштабирование вне сети пытается прорваться через узкое место основной цепи, но стоимость доверия высока, а внутричейн-параллелизм фокусируется на фундаментальном обновлении уровня исполнения, пытаясь приблизиться к пределу производительности современных распределенных систем, не нарушая согласованность цепочки. Невозможно для каждого пути решить все проблемы, но именно эти направления в совокупности формируют панораму обновления вычислительной парадигмы Web3, а также предоставляют разработчикам, архитекторам и инвесторам чрезвычайно богатые стратегические возможности. Подобно тому, как операционная система перешла от одноядерной к многоядерной, а базы данных эволюционировали от последовательных индексов к параллельным транзакциям, расширение Web3 в конечном итоге приведет к эре высокопараллельного выполнения. В нашу эпоху производительность — это уже не просто гонка на скорости цепи, а всестороннее воплощение лежащей в основе философии проектирования, глубокого понимания архитектуры, сотрудничества программного и аппаратного обеспечения и управления системой. И внутрицепной параллелизм может стать конечным полем битвы в этой долгосрочной войне. 3. Граф классификации параллельных вычислений: пять путей от аккаунта к инструкции В контексте непрерывной эволюции технологии масштабирования блокчейна параллельные вычисления постепенно стали основным путем для прорывов в производительности. В отличие от горизонтального разделения структурного уровня, сетевого уровня или уровня доступности данных, параллельные вычисления представляют собой глубокий майнинг на уровне исполнения, который связан с самой низкой логикой эффективности работы блокчейна и определяет скорость отклика и вычислительную мощность блокчейн-системы в условиях высокого параллелизма и многотипных сложных транзакций. Начав с модели выполнения и рассмотрев развитие этой технологической линии, мы можем отсортировать четкую классификационную карту параллельных вычислений, которую можно условно разделить на пять технических путей: параллелизм на уровне учетной записи, параллелизм на уровне объекта, параллелизм на уровне транзакций, параллелизм на уровне виртуальной машины и параллелизм на уровне инструкций. Эти пять типов путей, от крупнозернистых до мелкозернистых, представляют собой не только непрерывный процесс уточнения параллельной логики, но и путь возрастающей сложности системы и сложности планирования. Самый ранний параллелизм на уровне учетных записей был представлен Solana. Эта модель основана на схеме разделения счета и состояния и определяет наличие конфликтующих отношений путем статического анализа набора счетов, участвующих в транзакции. Если две транзакции обращаются к набору учетных записей, которые не перекрываются друг с другом, они могут выполняться одновременно на нескольких ядрах. Этот механизм идеально подходит для работы с хорошо структурированными транзакциями с четкими входами и выходами, особенно для программ с предсказуемыми путями, таких как DeFi. Тем не менее, его естественное предположение заключается в том, что доступ к учетной записи предсказуем, а зависимость от состояния может быть статически выведена, что делает его склонным к консервативному исполнению и снижению параллелизма перед лицом сложных смарт-контрактов (таких как динамическое поведение, такое как цепные игры и агенты искусственного интеллекта). Кроме того, перекрестная зависимость между счетами также значительно ослабляет параллельную доходность в некоторых сценариях высокочастотной торговли. В этом отношении среда выполнения Solana высоко оптимизирована, но ее основная стратегия планирования по-прежнему ограничена детализацией учетных записей. Дальнейшая доработка на основе модели аккаунта, мы выходим на технический уровень объектного параллелизма. Параллелизм на уровне объектов вводит семантическую абстракцию ресурсов и модулей с параллельным планированием в более мелких единицах «объектов состояния». Aptos и Sui являются важными исследователями в этом направлении, особенно последний, который определяет владение и вариативность ресурсов во время компиляции с помощью системы линейных типов языка Move, что позволяет среде выполнения точно контролировать конфликты доступа к ресурсам. По сравнению с параллелизмом на уровне учетных записей, этот метод является более универсальным и масштабируемым, может охватывать более сложную логику чтения и записи состояний и, естественно, обслуживает крайне разнородные сценарии, такие как игры, социальные сети и искусственный интеллект. Однако параллелизм на уровне объектов также приводит к более высокому порогу языка и сложности разработки, и Move не является прямой заменой Solidity, а высокая стоимость экологического переключения ограничивает популяризацию его параллельной парадигмы. Дальнейший параллелизм на уровне транзакций — это направление, которое исследуется в новом поколении высокопроизводительных цепочек, представленных Monad, Sei и Fuel. Вместо того чтобы рассматривать состояния или учетные записи как наименьшую единицу параллелизма, путь строится вокруг графа зависимостей вокруг всей транзакции. Он рассматривает транзакции как атомарные единицы операции, строит графы транзакций (Transaction DAGs) с помощью статического или динамического анализа и полагается на планировщики для параллельного выполнения потока. Такая конструкция позволяет системе максимально эффективно использовать параллелизм интеллектуального анализа данных без необходимости полного понимания базовой структуры состояния. Monad особенно примечательна своим сочетанием современных технологий ядра СУБД, таких как Optimistic Concurrency Control (OCC), Parallel Pipeline Scheduling и Out-of-Order Execution, что приближает выполнение цепочки к парадигме «планировщика GPU». На практике этот механизм требует чрезвычайно сложных менеджеров зависимостей и детекторов конфликтов, а сам планировщик также может стать узким местом, но его потенциальная пропускная способность намного выше, чем у учетной записи или объектной модели, что делает его наиболее теоретической силой в текущем треке параллельных вычислений. С другой стороны, параллелизм на уровне виртуальной машины встраивает возможности параллельного выполнения непосредственно в базовую логику планирования инструкций виртуальной машины, стремясь полностью преодолеть ограничения, присущие выполнению последовательностей EVM. MegaETH, как «эксперимент с супервиртуальными машинами» в экосистеме Ethereum, пытается переработать EVM для поддержки многопоточного параллельного выполнения кода смарт-контракта. Базовый уровень позволяет каждому контракту выполняться независимо друг от друга в различных контекстах выполнения с помощью таких механизмов, как сегментированное выполнение, сегментация состояния и асинхронный вызов, и обеспечивает возможную согласованность с помощью параллельного уровня синхронизации. Наиболее сложным аспектом этого подхода является то, что он должен быть полностью совместим с существующей семантикой поведения EVM, при этом перестраивая всю среду выполнения и газовый механизм, чтобы экосистема Solidity могла плавно перейти на параллельную платформу. Проблема заключается не только в глубине технологического стека, но и в принятии значительных изменений протокола в политической структуре L1 Ethereum. Но в случае успеха MegaETH обещает стать «революцией многоядерных процессоров» в пространстве EVM. Последний тип пути — это параллелизм на уровне инструкций, который является наиболее детальным и имеет самый высокий технический порог. Идея заимствована из конвейера Out-of-Order Execution and Instruction Pipeline в современном проектировании процессоров. Эта парадигма утверждает, что, поскольку каждый смарт-контракт в конечном итоге компилируется в инструкции байт-кода, вполне возможно планировать и перестраивать каждую операцию параллельно, поскольку ЦП выполняет набор инструкций x 86. Команда Fuel изначально внедрила в свою FuelVM переупорядочиваемую модель выполнения на уровне инструкций, и в долгосрочной перспективе, как только механизм выполнения блокчейна реализует предиктивное выполнение и динамическую перестановку зависимых от инструкций, его параллелизм достигнет своего теоретического предела. Такой подход может даже вывести совместное проектирование блокчейна и аппаратного обеспечения на совершенно новый уровень, сделав цепочку настоящим «децентрализованным компьютером», а не просто «распределенным реестром». Конечно, этот путь все еще находится в теоретической и экспериментальной стадии, а соответствующие планировщики и механизмы проверки безопасности еще не созрели, но он указывает на конечную границу будущего параллельных вычислений. Таким образом, пять путей — учетная запись, объект, транзакция, виртуальная машина и инструкция — составляют спектр развития внутрицепочечных параллельных вычислений, от статической структуры данных до механизма динамического планирования, от прогнозирования доступа к состоянию до перегруппировки на уровне инструкций, каждый шаг параллельной технологии означает значительное увеличение сложности системы и порога разработки. Но в то же время они также знаменуют собой смену парадигмы в вычислительной модели блокчейна — от традиционного консенсусного реестра с полной последовательностью к высокопроизводительной, предсказуемой и диспетчеризируемой среде распределенного выполнения. Это не только догоняющее достижение эффективности облачных вычислений Web2, но и глубокая концепция конечной формы «компьютера на блокчейне». Выбор параллельных путей для различных публичных цепочек также определит допустимый верхний предел их будущих прикладных экосистем, а также их основную конкурентоспособность в таких сценариях, как AI Agent, сетевые игры и высокочастотная торговля в сети. В-четвертых, объясняются два основных направления: Monad против MegaETH Среди множества путей эволюции параллельных вычислений двумя основными техническими путями с наибольшей направленностью, самым высоким голосом и наиболее полным повествованием на текущем рынке, несомненно, являются «построение параллельной вычислительной цепочки с нуля», представленное Monad, и «параллельная революция внутри EVM», представленная MegaETH. Эти два направления являются не только самыми интенсивными направлениями исследований и разработок для современных инженеров криптографических примитивов, но и самыми решающими полярными символами в текущей гонке производительности компьютеров Web3. Разница между ними заключается не только в исходной точке и стиле технической архитектуры, но и в экологических объектах, которые они обслуживают, стоимости миграции, философии реализации и будущем стратегическом пути, стоящем за ними. Они представляют собой параллельную парадигмальную конкуренцию между «реконструктивизмом» и «совместимостью» и оказали глубокое влияние на представление рынка об окончательной форме высокопроизводительных цепей. Монада является «вычислительным фундаменталистом» до мозга костей, и ее философия дизайна разработана не для совместимости с существующими EVM, а скорее для того, чтобы творчески переосмыслить основной способ работы механизмов выполнения блокчейна, черпая вдохновение в современных базах данных и высокопроизводительных многоядерных системах. Ее основная технологическая система опирается на зрелые механизмы в области баз данных, такие как оптимистичный контроль параллелизма, планирование DAG транзакций, внеочередное выполнение и конвейерное исполнение, направленные на увеличение производительности обработки транзакций в цепочке до порядка миллионов транзакций в секунду. В архитектуре Monad выполнение и упорядочивание транзакций полностью разъединяются, и система сначала строит граф зависимостей транзакций, а затем передает его планировщику для параллельного выполнения. Все транзакции обрабатываются как атомарные единицы транзакций с явными наборами чтения и записи и моментальными снимками состояния, а планировщики выполняют оптимистично на основе графов зависимостей, откатывая и повторно выполняя при возникновении конфликтов. Этот механизм чрезвычайно сложен с точки зрения технической реализации, требуя построения стека выполнения, аналогичного стеку современного менеджера транзакций базы данных, а также внедрения таких механизмов, как многоуровневое кэширование, предварительная выборка, параллельная валидация и т. д., для сжатия задержки окончательной фиксации состояния, но теоретически он может раздвинуть предел пропускной способности до высот, которые не могут быть представлены текущей цепочкой. Что еще более важно, Monad не отказалась от совместимости с EVM. Он использует промежуточный уровень, аналогичный "Solidity-Compatible Intermediate Language", для поддержки разработчиков в написании контрактов в синтаксисе Solidity, и в то же время выполняет промежуточную языковую оптимизацию и планирование распараллеливания в механизме выполнения. Эта стратегия проектирования «поверхностной совместимости и нижнего рефакторинга» не только сохраняет дружелюбие экологических разработчиков Ethereum, но и в наибольшей степени высвобождает базовый потенциал исполнения, что является типичной технической стратегией «проглатывания EVM и последующей его деконструкции». Это также означает, что как только Monad будет запущена, она станет не только суверенной цепью с экстремальной производительностью, но и идеальным уровнем исполнения для свертываемых сетей уровня 2, и даже «подключаемым высокопроизводительным ядром» для других модулей выполнения цепочки в долгосрочной перспективе. С этой точки зрения, Monad — это не только технический путь, но и новая логика проектирования системного суверенитета, которая выступает за «модульность-производительность-повторное использование» уровня выполнения, чтобы создать новый стандарт для межцепочечных совместных вычислений. В отличие от позиции Monad как «нового строителя мира», MegaETH — это совершенно противоположный проект, решивший начать с существующего мира Ethereum и достичь значительного повышения эффективности исполнения с минимальными затратами на изменения. MegaETH не отменяет спецификацию EVM, а скорее стремится встроить возможности параллельных вычислений в механизм исполнения существующих EVM, создавая будущую версию «многоядерного EVM». Обоснование заключается в полном рефакторинге текущей модели выполнения инструкций EVM с такими возможностями, как изоляция на уровне потока, асинхронное выполнение на уровне контракта и обнаружение конфликтов доступа к состоянию, что позволяет нескольким смарт-контрактам одновременно выполняться в одном блоке и в конечном итоге объединять изменения состояния. Эта модель требует, чтобы разработчики добились значительного прироста производительности от одного и того же контракта, развернутого в цепочке MegaETH, без изменения существующих контрактов Solidity, использования новых языков или наборов инструментов. Этот путь «консервативной революции» чрезвычайно привлекателен, особенно для экосистемы Ethereum L2, поскольку он обеспечивает идеальный путь к безболезненному повышению производительности без необходимости миграции синтаксиса. Основной прорыв MegaETH заключается в многопоточном механизме планирования виртуальных машин. Традиционные EVM используют многоуровневую однопоточную модель выполнения, в которой каждая инструкция выполняется линейно, а обновления состояния должны происходить синхронно. MegaETH нарушает этот шаблон и вводит асинхронный стек вызовов и механизм изоляции контекста выполнения, чтобы добиться одновременного выполнения «параллельных контекстов EVM». Каждый контракт может вызывать свою собственную логику в отдельном потоке, и все потоки будут одинаково обнаруживать и конвергировать состояние через уровень параллельной фиксации, когда состояние будет окончательно отправлено. Этот механизм очень похож на многопоточную модель JavaScript современных браузеров (Web Workers + Shared Memory + Lock-Free Data), которая сохраняет детерминированность поведения основного потока и вводит высокопроизводительный механизм планирования, который является асинхронным в фоновом режиме. На практике эта конструкция также очень удобна для сборщиков блоков и поисковиков и может оптимизировать упорядочивание мемпула и пути захвата MEV в соответствии с параллельной стратегией, формируя замкнутый цикл экономических преимуществ на уровне выполнения. Что еще более важно, MegaETH предпочитает быть глубоко привязанным к экосистеме Ethereum, и его основным местом приземления в будущем, вероятно, будет сеть EVM L2 Rollup, такая как Optimism, Base или Arbitrum Orbit chain. После принятия в больших масштабах он может достичь почти 100-кратного повышения производительности на вершине существующего технологического стека Ethereum без изменения семантики контрактов, модели состояния, газовой логики, методов вызова и т. д., что делает его привлекательным направлением технологического обновления для консерваторов EVM. Парадигма MegaETH такова: пока вы все еще делаете что-то на Ethereum, я позволю вашей вычислительной производительности взлететь. С точки зрения реализма и инженерии его легче реализовать, чем Monad, и он больше соответствует итеративному пути основных проектов DeFi и NFT, что делает его кандидатом, который с большей вероятностью получит экологическую поддержку в краткосрочной перспективе. В каком-то смысле два пути Monad и MegaETH — это не только две реализации параллельных технологических путей, но и классическое противостояние между «рефакторингом» и «совместимостью» в пути разработки блокчейна: первый стремится к прорыву парадигмы и реконструирует всю логику от виртуальных машин до управления базовым состоянием для достижения максимальной производительности и архитектурной пластичности; Последний преследует постепенную оптимизацию, доводя традиционные системы до предела, соблюдая при этом существующие экологические ограничения, тем самым минимизируя затраты на миграцию. Между ними нет абсолютных преимуществ или недостатков, но они служат разным группам разработчиков и видению экосистемы. Monad больше подходит для создания новых систем с нуля, цепных игр, стремящихся к экстремальной пропускной способности, агентов ИИ и модульных цепочек выполнения. MegaETH, с другой стороны, больше подходит для L2-проектов, DeFi-проектов и инфраструктурных протоколов, которые хотят добиться повышения производительности с минимальными изменениями в разработке. Они похожи на высокоскоростные поезда на новом пути, переосмысленные с рельсов, электросети на кузов автомобиля, только чтобы достичь беспрецедентной скорости и впечатлений; Другой пример — установка турбин на существующих автомагистралях, улучшение планирования полос движения и конструкции двигателя, что позволяет транспортным средствам двигаться быстрее, не выезжая за пределы привычной дорожной сети. Эти два варианта могут закончиться одним и тем же образом: на следующем этапе модульной архитектуры блокчейна Monad может стать модулем «исполнение как услуга» для Rollups, а MegaETH может стать плагином для ускорения производительности для основных L2. В конечном итоге они могут сойтись, чтобы сформировать два крыла высокопроизводительного движка распределенного исполнения в будущем мире Web3. 5. Будущие возможности и проблемы параллельных вычислений По мере того, как параллельные вычисления переходят от бумажного проектирования к реализации в блокчейне, потенциал, который они раскрывают, становится все более конкретным и измеримым. С одной стороны, мы видим, что новые парадигмы разработки и бизнес-модели начали пересматривать «производительность в сети»: более сложная логика игры на цепочке, более реалистичный жизненный цикл агента ИИ, больше протоколов обмена данными в реальном времени, более захватывающий интерактивный опыт и даже операционные системы для совместной работы в сети Super App — все это меняется от «можем ли мы это сделать» к «насколько это может быть хорошо». С другой стороны, то, что действительно стимулирует переход к параллельным вычислениям, — это не только линейное повышение производительности системы, но и структурное изменение когнитивных границ разработчиков и затраты на экологическую миграцию. Подобно тому, как внедрение в Ethereum механизма полного контракта по Тьюрингу привело к многомерному взрыву DeFi, NFT и DAO, «асинхронная реконструкция между состоянием и инструкциями», вызванная параллельными вычислениями, также порождает новую модель мира в блокчейне, которая является не только революцией в эффективности исполнения, но и очагом инноваций в структуре продукта. Прежде всего, с точки зрения возможностей, самая прямая выгода – это «поднятие потолка заявок». Большинство современных приложений DeFi, игр и социальных сетей ограничены узкими местами состояния, затратами на газ и задержкой и не могут по-настоящему поддерживать высокочастотные взаимодействия в цепочке в масштабе. Если взять в качестве примера цепные игры, то GameFi с обратной связью по реальному движению, высокочастотной синхронизацией поведения и логикой боя в реальном времени почти не существует, потому что линейное исполнение традиционных EVM не может поддерживать широковещательное подтверждение десятков изменений состояния в секунду. С помощью параллельных вычислений с помощью таких механизмов, как DAG транзакций и асинхронные контексты на уровне контрактов, можно создавать цепочки с высоким уровнем параллелизма, а также гарантировать детерминированные результаты выполнения за счет согласованности моментальных снимков, чтобы достичь структурного прорыва в «игровом движке на цепочке». Аналогичным образом, развертывание и работа агентов ИИ также будут значительно улучшены за счет параллельных вычислений. В прошлом мы, как правило, запускали агентов ИИ вне сети и загружали результаты их поведения только в ончейн-контракты, но в будущем ончейн может поддерживать асинхронное сотрудничество и обмен состоянием между несколькими объектами ИИ за счет параллельного планирования транзакций, чтобы по-настоящему реализовать автономную логику агента в реальном времени. Параллельные вычисления станут инфраструктурой для этого «контракта, управляемого поведением», что приведет Web3 от «транзакции как актива» к новому миру «взаимодействия в качестве агента». Во-вторых, набор инструментов разработчика и уровень абстракции виртуальной машины также были структурно изменены из-за распараллеливания. Традиционная парадигма разработки Solidity основана на модели серийного мышления, где разработчики привыкли проектировать логику как однопоточное изменение состояния, но в архитектурах параллельных вычислений разработчики будут вынуждены думать о конфликтах наборов чтения и записи, политиках изоляции состояний, атомарности транзакций и даже внедрять архитектурные шаблоны на основе очередей сообщений или конвейеров состояний. Этот скачок в когнитивной структуре также привел к быстрому росту нового поколения цепочек инструментов. Например, параллельные фреймворки смарт-контрактов, поддерживающие объявления транзакционных зависимостей, компиляторы оптимизации на основе IR и параллельные отладчики, поддерживающие моделирование моментальных снимков транзакций, станут очагами взрывного развития инфраструктуры в новом цикле. В то же время непрерывная эволюция модульных блокчейнов также привела к отличной посадке для параллельных вычислений: Monad может быть вставлен в L2 Rollup в качестве модуля исполнения, MegaETH может быть развернут в качестве замены EVM для основных цепочек, Celestia обеспечивает поддержку уровня доступности данных, а EigenLayer обеспечивает децентрализованную сеть валидаторов, тем самым формируя высокопроизводительную интегрированную архитектуру от базовых данных до логики выполнения. Тем не менее, развитие параллельных вычислений — это непростой путь, и проблемы еще более структурны, и их трудно преодолеть, чем возможности. С одной стороны, основные технические трудности заключаются в «гарантии согласованности государственного параллелизма» и «стратегии урегулирования конфликтов транзакций». В отличие от баз данных вне сети, ончейн не терпит произвольной степени отката транзакций или отзыва состояния, а любые конфликты выполнения необходимо моделировать заранее или точно контролировать во время события. Это означает, что параллельный планировщик должен обладать сильными возможностями построения графа зависимостей и прогнозирования конфликтов, и в то же время проектировать эффективный механизм отказоустойчивости оптимистичного выполнения, в противном случае система подвержена «шторму повторных попыток одновременного отказа» при высокой нагрузке, который не только увеличивается, но и уменьшается, и даже вызывает нестабильность цепочки. Более того, текущая модель безопасности многопоточной среды выполнения еще не полностью сформирована, например, точность механизма изоляции состояния между потоками, новое использование атак повторного входа в асинхронных контекстах и взрыв газового взрыва межпоточных вызовов контрактов — все это новые проблемы, требующие решения. Более коварные вызовы возникают из-за экологических и психологических аспектов. От того, готовы ли разработчики перейти на новую парадигму, смогут ли они овладеть методами проектирования параллельных моделей и готовы ли они отказаться от некоторой удобочитаемости и проверяемости контрактов ради выигрыша в производительности — вот ключ к тому, смогут ли параллельные вычисления сформировать экологическую потенциальную энергию. За последние несколько лет мы видели, как ряд цепочек с превосходной производительностью, но без поддержки разработчиков постепенно замолкают, такие как NEAR, Avalanche и даже некоторые цепочки Cosmos SDK, которые намного превосходят EVM, и их опыт напоминает нам, что без разработчиков нет экосистемы; Без экологии, какими бы хорошими ни были характеристики, это просто воздушный замок. Таким образом, проекты параллельных вычислений должны не только создавать самый мощный двигатель, но и прокладывать наиболее мягкий путь экологического перехода, чтобы «производительность была нестандартной», а не «производительность была когнитивным порогом». В конечном счете, будущее параллельных вычислений — это одновременно триумф системной инженерии и испытание для экодизайна. Это заставит нас пересмотреть вопрос о том, «в чем суть цепочки»: это децентрализованная расчетная машина или глобально распределенный оркестратор состояний в реальном времени? Если это так, то возможности пропускной способности состояния, параллелизма транзакций и отзывчивости контрактов, которые ранее рассматривались как «технические детали цепочки», в конечном итоге станут основными показателями, определяющими ценность цепочки. Парадигма параллельных вычислений, которая действительно завершает этот переход, также станет наиболее основными и наиболее сложными инфраструктурными примитивами в этом новом цикле, и ее влияние выйдет далеко за рамки технического модуля и может стать поворотным моментом в общей вычислительной парадигме Web3. 6. Заключение: являются ли параллельные вычисления лучшим путем для нативного масштабирования Web3? Из всех путей, которые исследуют границы производительности Web3, параллельные вычисления не самые простые в реализации, но они могут быть наиболее близкими к сути блокчейна. Он не мигрирует за пределы сети и не жертвует децентрализацией в обмен на пропускную способность, но пытается реконструировать саму модель выполнения в атомарности и детерминизме цепочки, от уровня транзакций, уровня контрактов и уровня виртуальных машин до корня узкого места производительности. Этот «родной для цепочки» метод масштабирования не только сохраняет основную модель доверия блокчейна, но и сохраняет устойчивую производительность для более сложных приложений в цепочке в будущем. Его сложность заключается в структуре, а его очарование заключается в строении. Если модульный рефакторинг – это «архитектура цепочки», то рефакторинг параллельных вычислений – это «душа цепочки». Возможно, это не короткий путь к таможенному оформлению, но, вероятно, это будет единственное устойчивое положительное решение в долгосрочной эволюции Web3. Мы являемся свидетелями архитектурного перехода от одноядерных процессоров к многоядерным/многопоточным ОС, и появление нативных операционных систем Web3 может быть скрыто в этих параллельных экспериментах в цепочке.
Показать оригинал
111,06 тыс.
1
TechFlow
TechFlow
1. Введение: Расширение – это вечное предложение, а параллелизм – это окончательное поле битвы С момента рождения биткоина система блокчейн всегда сталкивалась с неизбежной основной проблемой: масштабированием. Биткоин обрабатывает менее 10 транзакций в секунду, а Ethereum изо всех сил пытается преодолеть узкое место производительности в десятки транзакций в секунду (транзакций в секунду), что особенно громоздко в традиционном мире Web2, который часто составляет десятки тысяч транзакций в секунду. Что еще более важно, это не простая проблема, которую можно решить путем «добавления серверов», а системное ограничение, глубоко укоренившееся в базовом консенсусе и структурном дизайне блокчейна — то есть в невозможном треугольнике блокчейна, где «децентрализация, безопасность и масштабируемость» не могут быть объединены. За последнее десятилетие мы стали свидетелями бесчисленных попыток расширения. От войны за масштабирование биткоина до видения шардинга Ethereum, от каналов состояний и плазмы до роллапов и модульных блокчейнов, от выполнения вне сети на уровне 2 до структурного рефакторинга доступности данных — вся отрасль встала на путь масштабирования, полного инженерного воображения. Будучи наиболее широко принятой парадигмой масштабирования, роллап достиг цели значительного увеличения TPS при одновременном снижении нагрузки на основную цепочку и сохранении безопасности Ethereum. Но это не затрагивает реальных пределов базовой «одноцепочечной производительности» блокчейна, особенно на уровне выполнения, который представляет собой пропускную способность самого блока — все еще ограничен древней парадигмой обработки последовательных вычислений в цепочке. Из-за этого параллельные вычисления в цепочке постепенно вошли в сферу зрения отрасли. В отличие от масштабирования вне сети и кроссчейн-распределения, внутрицепочечный параллелизм пытается полностью перестроить механизм выполнения, сохраняя атомарность и интегрированную структуру одной цепи, и модернизирует блокчейн от однопоточного режима «последовательного выполнения одной транзакции за другой» до высокопараллельной вычислительной системы «многопоточность + конвейер + планирование зависимостей» под руководством современных операционных систем и процессоров. Такой путь может не только привести к стократному увеличению пропускной способности, но и стать ключевой предпосылкой для взрыва приложений смарт-контрактов. На самом деле, в вычислительной парадигме Web2 однопоточные вычисления уже давно устранены современными аппаратными архитектурами и заменены бесконечным потоком моделей оптимизации, таких как параллельное программирование, асинхронное планирование, пулы потоков и микросервисы. Блокчейн, будучи более примитивной и консервативной вычислительной системой с чрезвычайно высокими требованиями к определенности и проверяемости, так и не смог в полной мере использовать эти идеи параллельных вычислений. Это одновременно и ограничение, и возможность. Новые цепочки, такие как Solana, Sui и Aptos, первыми начали это исследование, внедрив параллелизм на архитектурном уровне. Новые проекты, такие как Monad и MegaETH, еще больше подняли параллелизм в цепочке до прорывов в глубоких механизмах, таких как выполнение конвейера, оптимистичный параллелизм и асинхронное управление сообщениями, демонстрируя характеристики, которые становятся все ближе и ближе к современным операционным системам. Можно сказать, что параллельные вычисления — это не только «метод оптимизации производительности», но и поворотный момент в парадигме модели исполнения блокчейна. Он бросает вызов фундаментальным шаблонам выполнения смарт-контрактов и переопределяет базовую логику упаковки транзакций, доступа к состоянию, отношений вызовов и структуры хранилища. Если роллап — это «перевод транзакций на выполнение вне сети», то ончейн-параллелизм — это «построение суперкомпьютерных ядер в цепочке», и его цель — не просто повысить пропускную способность, а обеспечить по-настоящему устойчивую инфраструктурную поддержку для будущих нативных приложений Web3 (высокочастотная торговля, игровые движки, выполнение моделей искусственного интеллекта, ончейн-социальные сети и т. д.). После того как траектория свертывания постепенно становится однородной, внутрицепочечный параллелизм незаметно становится решающей переменной нового цикла конкуренции уровня 1. Производительность — это уже не просто «быстрее», а возможность поддерживать весь мир разнородных приложений. Это не только техническая гонка, но и битва парадигм. Следующее поколение платформ суверенного исполнения в мире Web3, вероятно, появится из этой внутрицепочечной параллельной борьбы. 2. Панорама парадигмы расширения: пять типов маршрутов, каждый со своим акцентом Расширение производственных мощностей, как одна из самых важных, устойчивых и сложных тем в эволюции технологии публичных сетей, привело к появлению и эволюции почти всех основных технологических путей за последнее десятилетие. Начав с битвы за размер блока биткоина, это техническое соревнование на тему «как заставить цепочку работать быстрее» в конечном итоге разделилось на пять основных маршрутов, каждый из которых разрезает узкое место под разным углом, со своей собственной технической философией, сложностью посадки, моделью риска и применимыми сценариями. Первый путь — это наиболее простое масштабирование в цепочке, что означает увеличение размера блока, сокращение времени блока или повышение вычислительной мощности за счет оптимизации структуры данных и механизма консенсуса. Этот подход был в центре внимания дебатов о масштабировании биткоина, что привело к появлению форков «больших блоков», таких как BCH и BSV, а также повлияло на идеи дизайна ранних высокопроизводительных публичных сетей, таких как EOS и NEO. Преимущество такого рода маршрута заключается в том, что он сохраняет простоту одноцепочечной согласованности, которую легко понять и развернуть, но также очень легко коснуться системного верхнего предела, такого как риск централизации, растущие эксплуатационные расходы узла и повышенная сложность синхронизации, поэтому он больше не является основным основным решением в сегодняшнем дизайне, а стал скорее вспомогательным сочетанием других механизмов. Второй тип маршрута — это off-chain scaling, который представлен каналами состояния и сайдчейнами. Основная идея этого типа пути заключается в том, чтобы переместить большую часть транзакционной активности за пределы цепи и записать только конечный результат в основную цепочку, которая выступает в качестве конечного расчетного уровня. С точки зрения технической философии он близок к асинхронной архитектуре Web2 — постарайтесь оставить тяжелую обработку транзакций на периферии, а основная цепочка будет выполнять минимальную доверенную проверку. Хотя теоретически эта идея может быть бесконечно масштабируемой, модель доверия, безопасность средств и сложность взаимодействия транзакций вне сети ограничивают ее применение. Например, несмотря на то, что Lightning Network имеет четкое позиционирование финансовых сценариев, масштабы экосистемы никогда не взрывались. Тем не менее, несколько конструкций на основе сайдчейна, таких как Polygon POS, не только имеют высокую пропускную способность, но и обнажают недостатки сложного наследования безопасности основной цепи. Третий тип маршрута является наиболее популярным и широко используемым сверточным маршрутом уровня 2. Этот метод напрямую не изменяет саму основную цепочку, а масштабируется за счет механизма выполнения off-chain и on-chain верификации. Optimistic Rollup и ZK Rollup имеют свои преимущества: первый быстро внедряется и хорошо совместим, но у него есть проблемы с задержкой периода вызова и механизмом защиты от мошенничества; Последний обладает высокой безопасностью и хорошими возможностями сжатия данных, но сложен в разработке и не совместим с EVM. Независимо от того, какой это тип роллапа, его суть заключается в том, чтобы передать мощности исполнения на аутсорсинг, сохраняя при этом данные и верификацию на основной цепочке, достигая относительного баланса между децентрализацией и высокой производительностью. Быстрый рост таких проектов, как Arbitrum, Optimism, zkSync и StarkNet, доказывает целесообразность этого пути, но он также обнажает среднесрочные узкие места, такие как чрезмерная зависимость от доступности данных (DA), высокие затраты и фрагментированный опыт разработки. Четвертый тип маршрута — это модульная архитектура блокчейна, появившаяся в последние годы, такая как Celestia, Avail, EigenLayer и т.д. Модульная парадигма выступает за полное разъединение основных функций блокчейна — исполнения, консенсуса, доступности данных и расчетов — несколькими специализированными цепочками для выполнения различных функций, а затем их объединение в масштабируемую сеть с кроссчейн-протоколом. На это направление сильно влияет модульная архитектура операционной системы и концепция компонуемости облачных вычислений, преимущество которой заключается в возможности гибкой замены компонентов системы и значительном повышении эффективности в конкретных областях, таких как DA. Тем не менее, проблемы также очень очевидны: стоимость синхронизации, верификации и взаимного доверия между системами после разделения модулей чрезвычайно высока, экосистема разработчиков крайне фрагментирована, а требования к средне- и долгосрочным стандартам протоколов и кроссчейн-безопасности намного выше, чем при традиционном проектировании цепей. По сути, эта модель больше не строит «цепь», а строит «цепную сеть», которая выдвигает беспрецедентный порог для общего понимания архитектуры, эксплуатации и обслуживания. Последний тип маршрута, который является предметом последующего анализа в данной статье, — это путь оптимизации внутрицепочечных параллельных вычислений. В отличие от первых четырех типов «горизонтального дробления», которые в основном осуществляют «горизонтальное расщепление» со структурного уровня, параллельные вычисления делают акцент на «вертикальном апгрейдинге», то есть параллельная обработка атомарных транзакций реализуется путем изменения архитектуры исполняющего движка в рамках единой цепочки. Это требует переписывания логики планирования виртуальных машин и внедрения полного набора современных механизмов планирования компьютерных систем, таких как анализ зависимостей транзакций, прогнозирование конфликтов состояний, управление параллелизмом и асинхронные вызовы. Solana — первый проект, в котором концепция параллельной виртуальной машины реализована в системе на уровне цепочки, которая реализует многоядерное параллельное выполнение через суждение о конфликте транзакций на основе модели учетной записи. Новое поколение проектов, таких как Monad, Sei, Fuel, MegaETH и т. д., еще больше пытается внедрить передовые идеи, такие как выполнение конвейера, оптимистичный параллелизм, разделение хранилища и параллельное разделение для создания высокопроизводительных исполнительных ядер, подобных современным процессорам. Основное преимущество этого направления заключается в том, что ему не нужно полагаться на многоцепочечную архитектуру для достижения прорыва в лимите пропускной способности, и в то же время обеспечивается достаточная вычислительная гибкость для выполнения сложных смарт-контрактов, что является важной технической предпосылкой для будущих сценариев применения, таких как AI Agent, крупномасштабные сетевые игры и высокочастотные деривативы. Если посмотреть на вышеупомянутые пять типов путей масштабирования, то за ними на самом деле стоит систематический компромисс между производительностью, компонуемостью, безопасностью и сложностью разработки блокчейна. Роллап силен в аутсорсинге консенсуса и безопасном наследовании, модульность выделяет структурную гибкость и повторное использование компонентов, масштабирование вне сети пытается прорваться через узкое место основной цепи, но стоимость доверия высока, а внутричейн-параллелизм фокусируется на фундаментальном обновлении уровня исполнения, пытаясь приблизиться к пределу производительности современных распределенных систем, не нарушая согласованность цепочки. Невозможно для каждого пути решить все проблемы, но именно эти направления в совокупности формируют панораму обновления вычислительной парадигмы Web3, а также предоставляют разработчикам, архитекторам и инвесторам чрезвычайно богатые стратегические возможности. Подобно тому, как операционная система перешла от одноядерной к многоядерной, а базы данных эволюционировали от последовательных индексов к параллельным транзакциям, расширение Web3 в конечном итоге приведет к эре высокопараллельного выполнения. В нашу эпоху производительность — это уже не просто гонка на скорости цепи, а всестороннее воплощение лежащей в основе философии проектирования, глубокого понимания архитектуры, сотрудничества программного и аппаратного обеспечения и управления системой. И внутрицепной параллелизм может стать конечным полем битвы в этой долгосрочной войне. 3. Граф классификации параллельных вычислений: пять путей от аккаунта к инструкции В контексте непрерывной эволюции технологии масштабирования блокчейна параллельные вычисления постепенно стали основным путем для прорывов в производительности. В отличие от горизонтального разделения структурного уровня, сетевого уровня или уровня доступности данных, параллельные вычисления представляют собой глубокий майнинг на уровне исполнения, который связан с самой низкой логикой эффективности работы блокчейна и определяет скорость отклика и вычислительную мощность блокчейн-системы в условиях высокого параллелизма и многотипных сложных транзакций. Начав с модели выполнения и рассмотрев развитие этой технологической линии, мы можем отсортировать четкую классификационную карту параллельных вычислений, которую можно условно разделить на пять технических путей: параллелизм на уровне учетной записи, параллелизм на уровне объекта, параллелизм на уровне транзакций, параллелизм на уровне виртуальной машины и параллелизм на уровне инструкций. Эти пять типов путей, от крупнозернистых до мелкозернистых, представляют собой не только непрерывный процесс уточнения параллельной логики, но и путь возрастающей сложности системы и сложности планирования. Самый ранний параллелизм на уровне счетов — это парадигма, представленная Solana. Эта модель основана на схеме разделения счета и состояния и определяет наличие конфликтующих отношений путем статического анализа набора счетов, участвующих в транзакции. Если две транзакции обращаются к набору учетных записей, которые не перекрываются друг с другом, они могут выполняться одновременно на нескольких ядрах. Этот механизм идеально подходит для работы с хорошо структурированными транзакциями с четкими входами и выходами, особенно для программ с предсказуемыми путями, таких как DeFi. Тем не менее, его естественное предположение заключается в том, что доступ к учетной записи предсказуем, а зависимость от состояния может быть статически выведена, что делает его склонным к консервативному исполнению и снижению параллелизма перед лицом сложных смарт-контрактов (таких как динамическое поведение, такое как цепные игры и агенты искусственного интеллекта). Кроме того, перекрестная зависимость между счетами также значительно ослабляет параллельную доходность в некоторых сценариях высокочастотной торговли. В этом отношении среда выполнения Solana высоко оптимизирована, но ее основная стратегия планирования по-прежнему ограничена детализацией учетных записей. Дальнейшая доработка на основе модели аккаунта, мы выходим на технический уровень объектного параллелизма. Параллелизм на уровне объектов вводит семантическую абстракцию ресурсов и модулей с параллельным планированием в более мелких единицах «объектов состояния». Aptos и Sui являются важными исследователями в этом направлении, особенно последний, который определяет владение и вариативность ресурсов во время компиляции с помощью системы линейных типов языка Move, что позволяет среде выполнения точно контролировать конфликты доступа к ресурсам. По сравнению с параллелизмом на уровне учетных записей, этот метод является более универсальным и масштабируемым, может охватывать более сложную логику чтения и записи состояний и, естественно, обслуживает крайне разнородные сценарии, такие как игры, социальные сети и искусственный интеллект. Тем не менее, параллелизм на уровне объектов также приводит к более высоким языковым барьерам и сложности разработки, и Move не является прямой заменой Solidity, а высокая стоимость экологического переключения ограничивает популярность его параллельной парадигмы. Дальнейший параллелизм на уровне транзакций — это направление, которое исследуется в новом поколении высокопроизводительных цепочек, представленных Monad, Sei и Fuel. Вместо того чтобы рассматривать состояния или учетные записи как наименьшую единицу параллелизма, путь строится вокруг графа зависимостей вокруг всей транзакции. Он рассматривает транзакции как атомарные единицы операции, строит графы транзакций (Transaction DAGs) с помощью статического или динамического анализа и полагается на планировщики для параллельного выполнения потока. Такая конструкция позволяет системе максимально эффективно использовать параллелизм интеллектуального анализа данных без необходимости полного понимания базовой структуры состояния. Monad особенно привлекателен тем, что сочетает в себе современные технологии ядра СУБД, такие как оптимистичное управление параллелизмом (OCC), планирование параллельных конвейеров и внеочередное выполнение, приближая выполнение цепочки к парадигме «планировщика графических процессоров». На практике этот механизм требует чрезвычайно сложных менеджеров зависимостей и детекторов конфликтов, а сам планировщик также может стать узким местом, но его потенциальная пропускная способность намного выше, чем у учетной записи или объектной модели, что делает его наиболее теоретической силой в текущем треке параллельных вычислений. С другой стороны, параллелизм на уровне виртуальной машины встраивает возможности параллельного выполнения непосредственно в базовую логику планирования инструкций виртуальной машины, стремясь полностью преодолеть ограничения, присущие выполнению последовательностей EVM. В качестве «эксперимента с супервиртуальными машинами» в экосистеме Ethereum MegaETH пытается перепроектировать EVM для поддержки многопоточного параллельного выполнения кода смарт-контракта. Базовый уровень позволяет каждому контракту выполняться независимо друг от друга в различных контекстах выполнения с помощью таких механизмов, как сегментированное выполнение, сегментация состояния и асинхронный вызов, и обеспечивает возможную согласованность с помощью параллельного уровня синхронизации. Самая сложная часть этого подхода заключается в том, что он должен быть полностью совместим с существующей семантикой поведения EVM, и в то же время трансформировать всю среду выполнения и механизм газа, чтобы плавно перенести экосистему Solidity на параллельный фреймворк. Проблема заключается не только в глубине технологического стека, но и в принятии значительных изменений протокола в политической структуре L1 Ethereum. Но в случае успеха MegaETH обещает стать «революцией многоядерных процессоров» в пространстве EVM. Последний тип пути — это параллелизм на уровне инструкций, который является наиболее детальным и имеет самый высокий технический порог. Идея основана на неупорядоченном выполнении и конвейерах инструкций современных процессоров. Эта парадигма утверждает, что, поскольку каждый смарт-контракт в конечном итоге компилируется в инструкции байт-кода, вполне возможно планировать и анализировать каждую операцию и перестраивать ее параллельно таким же образом, как процессор выполняет набор инструкций x86. Команда Fuel изначально внедрила в свою FuelVM переупорядочиваемую модель выполнения на уровне инструкций, и в долгосрочной перспективе, как только механизм выполнения блокчейна реализует предиктивное выполнение и динамическую перестановку зависимых инструкций, его параллелизм достигнет теоретического предела. Такой подход может даже вывести совместное проектирование блокчейна и аппаратного обеспечения на совершенно новый уровень, сделав цепочку настоящим «децентрализованным компьютером», а не просто «распределенным реестром». Конечно, этот путь все еще находится в теоретической и экспериментальной стадии, а соответствующие планировщики и механизмы проверки безопасности еще не созрели, но он указывает на конечную границу будущего параллельных вычислений. Таким образом, пять путей — учетная запись, объект, транзакция, виртуальная машина и инструкция — составляют спектр развития внутрицепочечных параллельных вычислений, от статической структуры данных до механизма динамического планирования, от прогнозирования доступа к состоянию до перегруппировки на уровне инструкций, каждый шаг параллельной технологии означает значительное увеличение сложности системы и порога разработки. Но в то же время они также знаменуют собой смену парадигмы в вычислительной модели блокчейна — от традиционного консенсусного реестра с полной последовательностью к высокопроизводительной, предсказуемой и диспетчеризируемой среде распределенного выполнения. Это не только догоняющее достижение эффективности облачных вычислений Web2, но и глубокая концепция конечной формы «компьютера на блокчейне». Выбор параллельных путей для различных публичных цепочек также определит предел носителя их будущих прикладных экосистем, а также их основную конкурентоспособность в таких сценариях, как AI Agent, сетевые игры и высокочастотная торговля в сети. В-четвертых, объясняются два основных направления: Monad против MegaETH Среди множества путей эволюции параллельных вычислений двумя основными техническими путями с наибольшей направленностью, самым высоким голосом и наиболее полным повествованием на текущем рынке, несомненно, являются «построение параллельной вычислительной цепочки с нуля», представленное Monad, и «параллельная революция внутри EVM», представленная MegaETH. Эти два направления являются не только самыми интенсивными направлениями исследований и разработок для современных инженеров криптографических примитивов, но и самыми решающими полярными символами в текущей гонке производительности компьютеров Web3. Разница между ними заключается не только в исходной точке и стиле технической архитектуры, но и в экологических объектах, которые они обслуживают, стоимости миграции, философии реализации и будущем стратегическом пути, стоящем за ними. Они представляют собой параллельную парадигмальную конкуренцию между «реконструктивизмом» и «совместимостью» и оказали глубокое влияние на представление рынка об окончательной форме высокопроизводительных цепей. Monad является «вычислительным фундаменталистом» до мозга костей, и его философия дизайна не предназначена для совместимости с существующими EVM, а скорее для того, чтобы переосмыслить способ работы механизмов выполнения блокчейна под капотом, черпая вдохновение в современных базах данных и высокопроизводительных многоядерных системах. Ее основная технологическая система опирается на зрелые механизмы в области баз данных, такие как оптимистичный контроль параллелизма, планирование DAG транзакций, внеочередное выполнение и конвейерное исполнение, направленные на увеличение производительности обработки транзакций в цепочке до порядка миллионов транзакций в секунду. В архитектуре Monad выполнение и упорядочивание транзакций полностью разъединяются, и система сначала строит граф зависимостей транзакций, а затем передает его планировщику для параллельного выполнения. Все транзакции обрабатываются как атомарные единицы транзакций с явными наборами чтения и записи и моментальными снимками состояния, а планировщики выполняют оптимистично на основе графов зависимостей, откатывая и повторно выполняя при возникновении конфликтов. Этот механизм чрезвычайно сложен с точки зрения технической реализации, требуя построения стека выполнения, аналогичного стеку современного менеджера транзакций базы данных, а также внедрения таких механизмов, как многоуровневое кэширование, предварительная выборка, параллельная валидация и т. д., для сжатия задержки окончательной фиксации состояния, но теоретически он может раздвинуть предел пропускной способности до высот, которые не могут быть представлены текущей цепочкой. Что еще более важно, Monad не отказалась от совместимости с EVM. Он использует промежуточный уровень, аналогичный "Solidity-Compatible Intermediate Language", для поддержки разработчиков в написании контрактов в синтаксисе Solidity, и в то же время выполняет промежуточную языковую оптимизацию и планирование распараллеливания в механизме выполнения. Эта стратегия проектирования «поверхностной совместимости и нижнего рефакторинга» не только сохраняет дружелюбие экологических разработчиков Ethereum, но и в наибольшей степени высвобождает базовый потенциал исполнения, что является типичной технической стратегией «проглатывания EVM и последующей его деконструкции». Это также означает, что как только Monad будет запущена, она станет не только суверенной цепью с экстремальной производительностью, но и идеальным уровнем исполнения для свертываемых сетей уровня 2, и даже «подключаемым высокопроизводительным ядром» для других модулей выполнения цепочки в долгосрочной перспективе. С этой точки зрения, Monad — это не только технический путь, но и новая логика проектирования системного суверенитета, которая выступает за «модульность-производительность-повторное использование» уровня выполнения, чтобы создать новый стандарт для межцепочечных совместных вычислений. В отличие от позиции Monad как «нового строителя мира», MegaETH — это совершенно противоположный тип проекта, который решает начать с существующего мира Ethereum и достичь значительного повышения эффективности исполнения с минимальными затратами на изменения. MegaETH не отменяет спецификацию EVM, а скорее стремится встроить мощь параллельных вычислений в механизм исполнения существующей EVM, создавая будущую версию «многоядерного EVM». Обоснование заключается в полном рефакторинге текущей модели выполнения инструкций EVM с такими возможностями, как изоляция на уровне потока, асинхронное выполнение на уровне контракта и обнаружение конфликтов доступа к состоянию, что позволяет нескольким смарт-контрактам одновременно выполняться в одном блоке и в конечном итоге объединять изменения состояния. Эта модель требует, чтобы разработчики добились значительного прироста производительности от одного и того же контракта, развернутого в цепочке MegaETH, без изменения существующих контрактов Solidity, использования новых языков или наборов инструментов. Этот путь «консервативной революции» чрезвычайно привлекателен, особенно для экосистемы Ethereum L2, поскольку он обеспечивает идеальный путь к безболезненному повышению производительности без необходимости миграции синтаксиса. Основной прорыв MegaETH заключается в многопоточном механизме планирования виртуальных машин. Традиционные EVM используют многоуровневую однопоточную модель выполнения, в которой каждая инструкция выполняется линейно, а обновления состояния должны происходить синхронно. MegaETH нарушает этот шаблон и вводит асинхронный стек вызовов и механизм изоляции контекста выполнения, чтобы добиться одновременного выполнения «параллельных контекстов EVM». Каждый контракт может вызывать свою собственную логику в отдельном потоке, и все потоки будут одинаково обнаруживать и конвергировать состояние через уровень параллельной фиксации, когда состояние будет окончательно отправлено. Этот механизм очень похож на многопоточную модель JavaScript современных браузеров (Web Workers + Shared Memory + Lock-Free Data), которая сохраняет детерминированность поведения основного потока и вводит высокопроизводительный механизм планирования, который является асинхронным в фоновом режиме. На практике эта конструкция также чрезвычайно удобна для сборщиков блоков и поисковиков и может оптимизировать сортировку Mempool и пути захвата MEV в соответствии с параллельными стратегиями, формируя замкнутый цикл экономических преимуществ на уровне выполнения. Что еще более важно, MegaETH предпочитает быть глубоко привязанным к экосистеме Ethereum, и его основным местом приземления в будущем, вероятно, будет сеть EVM L2 Rollup, такая как Optimism, Base или Arbitrum Orbit chain. После внедрения в больших масштабах он может достичь почти 100-кратного повышения производительности на вершине существующего технологического стека Ethereum без изменения семантики контрактов, модели состояния, газовой логики, методов вызова и т. д., что делает его привлекательным направлением технологического обновления для консерваторов EVM. Парадигма MegaETH такова: пока вы все еще делаете что-то на Ethereum, я позволю вашей вычислительной производительности взлететь. С точки зрения реализма и инженерии его легче реализовать, чем Monad, и он больше соответствует итеративному пути основных проектов DeFi и NFT, что делает его кандидатом на экологическую поддержку в краткосрочной перспективе. В каком-то смысле два пути Monad и MegaETH — это не только две реализации параллельных технологических путей, но и классическое противостояние между «рефакторингом» и «совместимостью» в пути разработки блокчейна: первый стремится к прорыву парадигмы и реконструирует всю логику от виртуальных машин до управления базовым состоянием для достижения максимальной производительности и архитектурной пластичности; Последний преследует постепенную оптимизацию, доводя традиционные системы до предела, соблюдая при этом существующие экологические ограничения, тем самым минимизируя затраты на миграцию. Между ними нет абсолютных преимуществ или недостатков, но они служат разным группам разработчиков и видению экосистемы. Monad больше подходит для создания новых систем с нуля, цепных игр, стремящихся к экстремальной пропускной способности, агентов ИИ и модульных цепочек выполнения. MegaETH, с другой стороны, больше подходит для L2-проектов, DeFi-проектов и инфраструктурных протоколов, которые хотят добиться повышения производительности с минимальными изменениями в разработке. Они похожи на высокоскоростные поезда на новом пути, переосмысленные с рельсов, электросети на кузов автомобиля, только чтобы достичь беспрецедентной скорости и впечатлений; Другой пример — установка турбин на существующих автомагистралях, улучшение планирования полос движения и конструкции двигателя, что позволяет транспортным средствам двигаться быстрее, не выезжая за пределы привычной дорожной сети. Эти два варианта могут закончиться одним и тем же образом: на следующем этапе модульной архитектуры блокчейна Monad может стать модулем «исполнение как услуга» для Rollups, а MegaETH может стать плагином для ускорения производительности для основных L2. В конечном итоге они могут сойтись, чтобы сформировать два крыла высокопроизводительного движка распределенного исполнения в будущем мире Web3. 5. Будущие возможности и проблемы параллельных вычислений По мере того, как параллельные вычисления переходят от бумажного проектирования к реализации в блокчейне, потенциал, который они раскрывают, становится все более конкретным и измеримым. С одной стороны, мы видим, что новые парадигмы разработки и бизнес-модели начали пересматривать «производительность в цепочке»: более сложная логика игры в цепочке, более реалистичный жизненный цикл агента ИИ, более широкий протокол обмена данными в реальном времени, более захватывающий интерактивный опыт и даже операционная система для совместной работы в сети Super App — все это меняется от «можем ли мы это сделать» к «насколько хорошо мы можем это сделать». С другой стороны, то, что действительно стимулирует переход к параллельным вычислениям, — это не только линейное повышение производительности системы, но и структурное изменение когнитивных границ разработчиков и затраты на экологическую миграцию. Подобно тому, как внедрение в Ethereum механизма полного контракта по Тьюрингу привело к многомерному взрыву DeFi, NFT и DAO, «асинхронная реконструкция между состоянием и инструкцией», вызванная параллельными вычислениями, также порождает новую модель мира в блокчейне, которая является не только революцией в эффективности выполнения, но и очагом инноваций в структуре продукта. Прежде всего, с точки зрения возможностей, самая прямая выгода – это «поднятие потолка заявок». Большинство текущих приложений DeFi, игр и социальных приложений ограничены узкими местами состояния, затратами на газ и задержкой и не могут по-настоящему обеспечить высокочастотные взаимодействия в цепочке в больших масштабах. Если взять в качестве примера цепные игры, то GameFi с реальной обратной связью по движению, высокочастотной синхронизацией поведения и логикой боя в реальном времени почти не существует, потому что линейное исполнение традиционной EVM не может поддерживать широковещательное подтверждение десятков изменений состояния в секунду. С помощью параллельных вычислений с помощью таких механизмов, как DAG транзакций и асинхронные контексты на уровне контрактов, можно создавать цепочки с высоким уровнем параллелизма, а также гарантировать детерминированные результаты выполнения за счет согласованности моментальных снимков, чтобы достичь структурного прорыва в «игровом движке на цепочке». Аналогичным образом, развертывание и работа агентов ИИ также будут значительно улучшены за счет параллельных вычислений. В прошлом мы, как правило, запускали агентов ИИ вне сети и загружали результаты их поведения только в ончейн-контракты, но в будущем ончейн может поддерживать асинхронное сотрудничество и обмен состоянием между несколькими объектами ИИ за счет параллельного планирования транзакций, чтобы по-настоящему реализовать автономную логику агента в реальном времени. Параллельные вычисления станут инфраструктурой для этого «контракта, управляемого поведением», что приведет Web3 от «транзакции как актива» к новому миру «взаимодействия в качестве агента». Во-вторых, набор инструментов разработчика и уровень абстракции виртуальной машины также были структурно изменены из-за распараллеливания. Традиционная парадигма разработки Solidity основана на модели серийного мышления, где разработчики привыкли проектировать логику как однопоточное изменение состояния, но в архитектурах параллельных вычислений разработчики будут вынуждены думать о конфликтах наборов чтения и записи, политиках изоляции состояний, атомарности транзакций и даже внедрять архитектурные шаблоны на основе очередей сообщений или конвейеров состояний. Этот скачок в когнитивной структуре также привел к быстрому росту нового поколения цепочек инструментов. Например, параллельные фреймворки смарт-контрактов, поддерживающие объявления транзакционных зависимостей, компиляторы оптимизации на основе IR и параллельные отладчики, поддерживающие моделирование моментальных снимков транзакций, станут очагами взрывного развития инфраструктуры в новом цикле. В то же время непрерывная эволюция модульных блокчейнов также привела к отличной посадке для параллельных вычислений: Monad может быть вставлен в L2 Rollup в качестве модуля исполнения, MegaETH может быть развернут в качестве замены EVM для основных цепочек, Celestia обеспечивает поддержку уровня доступности данных, а EigenLayer обеспечивает децентрализованную сеть валидаторов, тем самым формируя высокопроизводительную интегрированную архитектуру от базовых данных до логики выполнения. Тем не менее, развитие параллельных вычислений — это непростой путь, и проблемы еще более структурны, и их трудно преодолеть, чем возможности. С одной стороны, основные технические трудности заключаются в «гарантии согласованности государственного параллелизма» и «стратегии урегулирования конфликтов транзакций». В отличие от баз данных вне сети, ончейн не терпит произвольной степени отката транзакций или отзыва состояния, а любые конфликты выполнения необходимо моделировать заранее или точно контролировать во время события. Это означает, что параллельный планировщик должен обладать сильными возможностями построения графа зависимостей и прогнозирования конфликтов, и в то же время проектировать эффективный механизм отказоустойчивости оптимистичного выполнения, в противном случае система подвержена «шторму повторных попыток одновременного отказа» при высокой нагрузке, который не только увеличивается, но и уменьшается, и даже вызывает нестабильность цепочки. Более того, текущая модель безопасности многопоточной среды выполнения еще не полностью сформирована, например, точность механизма изоляции состояния между потоками, новое использование атак повторного входа в асинхронных контекстах и взрывной рост числа межпоточных вызовов контрактов — все это новые проблемы, требующие решения. Более коварные вызовы возникают из-за экологических и психологических аспектов. От того, готовы ли разработчики перейти на новую парадигму, смогут ли они овладеть методами проектирования параллельных моделей и готовы ли они отказаться от некоторой удобочитаемости и проверяемости контрактов ради выигрыша в производительности — вот ключ к тому, смогут ли параллельные вычисления сформировать экологическую потенциальную энергию. За последние несколько лет мы видели, как ряд цепочек с превосходной производительностью, но без поддержки разработчиков, постепенно замолкали, такие как NEAR, Avalanche и даже некоторые цепочки Cosmos SDK с гораздо лучшей производительностью, чем EVM, и их опыт напоминает нам, что без разработчиков нет экосистемы; Без экологии, какими бы хорошими ни были характеристики, это просто воздушный замок. Таким образом, проекты параллельных вычислений должны не только создавать самый мощный двигатель, но и прокладывать наиболее мягкий путь экологического перехода, чтобы «производительность была нестандартной», а не «производительность была когнитивным порогом». В конечном счете, будущее параллельных вычислений — это одновременно триумф системной инженерии и испытание для экодизайна. Это заставит нас пересмотреть вопрос о том, «в чем суть цепочки»: это децентрализованная расчетная машина или глобально распределенный оркестратор состояний в реальном времени? Если это так, то возможности пропускной способности состояния, параллелизма транзакций и отзывчивости контрактов, которые ранее рассматривались как «технические детали цепочки», в конечном итоге станут основными показателями, определяющими ценность цепочки. Парадигма параллельных вычислений, которая действительно завершает этот переход, также станет наиболее основными и наиболее сложными инфраструктурными примитивами в этом новом цикле, и ее влияние выйдет далеко за рамки технического модуля и может стать поворотным моментом в общей вычислительной парадигме Web3. 6. Заключение: являются ли параллельные вычисления лучшим путем для нативного расширения Web3? Из всех путей, которые исследуют границы производительности Web3, параллельные вычисления не самые простые в реализации, но они могут быть наиболее близкими к сути блокчейна. Он не мигрирует за пределы сети и не жертвует децентрализацией в обмен на пропускную способность, но пытается реконструировать саму модель выполнения в атомарности и детерминизме цепочки, от уровня транзакций, уровня контрактов и уровня виртуальных машин до корня узкого места производительности. Этот «родной для цепочки» метод масштабирования не только сохраняет основную модель доверия блокчейна, но и сохраняет устойчивую производительность для более сложных приложений в цепочке в будущем. Его сложность заключается в структуре, а его очарование заключается в строении. Если модульный рефакторинг – это «архитектура цепочки», то рефакторинг параллельных вычислений – это «душа цепочки». Возможно, это не короткий путь к таможенному оформлению, но, вероятно, это будет единственное устойчивое положительное решение в долгосрочной эволюции Web3. Мы являемся свидетелями архитектурного перехода от одноядерных процессоров к многоядерным/многопоточным ОС, и появление нативных операционных систем Web3 может быть скрыто в этих параллельных экспериментах в цепочке.
Показать оригинал
112,35 тыс.
1
charker 📱
charker 📱
Не могу поверить, что Сатоши все еще держит все свои BCH и BSV. Настоящие алмазные руки.
Показать оригинал
8,9 тыс.
16

Калькулятор BSV

USDUSD
BSVBSV

Статистика курса Bitcoin SV (в USD)

Текущая цена Bitcoin SV составляет $33,3900. За прошедшие сутки курс Bitcoin SV вырос на +1,15 %. Текущий объем в обращении составляет 19 872 212 BSV, а общая эмиссия — 21 000 000 BSV. Рыночная капитализация этой криптовалюты при полной эмиссии составит $663,53M. Сейчас Bitcoin SV удерживает 72‑ю позицию в рейтинге по рыночной капитализации. Курс Bitcoin SV/USD обновляется в реальном времени.
Текущий день
+$0,38000
+1,15 %
7 дней
-$3,2800
-8,95 %
30 дней
-$4,0500
-10,82 %
3 месяца
-$4,1100
-10,96 %

Описание Bitcoin SV (BSV)

4.2/5
CyberScope
4.2
16.04.2025
Рейтинг составляется на основе сведений, собранных из доступных источников. Данные предоставляются исключительно в информационных целях. OKX не гарантирует качество и точность рейтингов. Рейтинг не является инвестиционным советом и рекомендацией, предложением или стимулом к покупке, продаже и хранению цифровых активов, а также финансовым, бухгалтерским или налоговым советом. Цифровые активы, в том числе стейблкоины и NFT, сопряжены с высокой степенью риска, их курсы могут сильно колебаться вплоть до полного обесценивания. Цифровые активы не застрахованы от возможных убытков. Доходность в прошлые периоды не гарантирует доходность в будущем. OKX не гарантирует доход, возвращение основного капитала и процентов. OKX не предоставляет рекомендаций по инвестированию и использованию активов. Перед инвестированием тщательно оцените ваше финансовое состояние и определите, подходит ли вам торговля и удерживание цифровых активов. Перед торговлей рекомендуем проконсультироваться со специалистом по юридическим, налоговым или инвестиционным вопросам.
Развернуть
  • Официальный сайт
  • Техническое описание
  • Обозреватель блоков
  • О сторонних веб-сайтах
    О сторонних веб-сайтах
    Используя сторонний сайт, вы соглашаетесь с тем, что любое его использование будет регулироваться условиями стороннего сайта. OKX и его партнеры («OKX») никоим образом не связаны с владельцем или оператором стороннего сайта, если это прямо не указано в письменной форме. Вы соглашаетесь с тем, что OKX не несет ответственности ни за какие потери, ущерб и любые другие последствия, возникшие в результате использования вами стороннего сайта. Помните, что использование стороннего сайта может привести к утрате или сокращению ваших активов.

Биткойн SV (BSV) - цифровая валюта, появившаяся в 2018 году в результате хард форка блокчейна Биткойн Кэш (BCH). Он задуман как более масштабируемая и эффективная версия Биткойна, отличающаяся большим размером блока и более высокой скоростью транзакций.

Что такое Биткойн SV?

Являясь форком Биткойн Кэш, Биткойн SV может похвастаться размером блока в 2 гигабайта, что значительно превосходит 1-мегабайтный размер блока Биткойна. Увеличенная мощность обработки транзакций позволяет ему достичь большей масштабируемости.

Команда Биткойн SV

Команда, стоящая за Биткойн SV, состоит из разработчиков, предпринимателей и сторонников, которые стремятся повысить масштабируемость, эффективность и экологичность криптовалюты BSV. Крейг Райт, австралийский компьютерный ученый, возглавляет команду Биткойн SV.

Как работает BSV?

  1. Транзакции BSV обрабатываются только на блокчейне BSV. Блокчейн BSV - это децентрализованная бухгалтерская книга, которую поддерживает группа майнеров.
  2. Майнеры на блокчейне BSV получают токены BSV в качестве вознаграждения за подтверждение транзакций. Майнинг - это термин, используемый для описания процесса проверки транзакций.
  3. Блокчейн BSV защищен с помощью механизма консенсуса “Доказательство работы” (PoW). Система “Доказательство работы” призвана гарантировать, что в блокчейн будут включены только легитимные транзакции.
  4. Токены BSV можно безопасно хранить в кошельках. Кошельки - это программы, которые позволяют пользователям хранить, отправлять и получать криптовалюту.

Полезность токен BSV

Название полезного токена для Биткойн SV - BSV. BSV призван стать более масштабируемой и эффективной итерацией Биткойна, отличающейся большим размером блока и более высокой скоростью транзакций.

Токеномика BSV  

Общий запас BSV, как и у Биткойна, составляет 21 миллион токенов. Каждый блок вознаграждает 6,25 токенов BSV, время блока составляет 6 секунд, а комиссии за транзакции обычно очень низкие.

Стейкинг BSV?

Чтобы сделать ставку на BSV, вы должны сначала выбрать службу ставок. Пользователи могут сделать ставку на BSV в OKX Earn, который предлагает примерно 1 процент APY на гибких условиях. Вы можете начать зарабатывать вознаграждение немедленно и иметь возможность в любой момент отказаться от ставки BSV.

Распределение BSV

  • 18,4 миллиона токенов BSV были первоначально распределены среди держателей Биткоинов (BTC), которые хранили свои BTC в цепочке Биткойн Кэш до хард-форка 15 ноября 2018 года.
  • Токены BSV генерируются в процессе, известном как майнинг. Блокчейн BSV вознаграждает майнеров BSV за их усилия по проверке транзакций.
  • BSV можно заработать и с помощью стейкинга. Ставка предполагает блокировку BSV для участия в механизме консенсуса, который обеспечивает безопасность блокчейна BSV.

Планы расширения Bitcoin SV на будущее

  • Bitcoin SV стремится расширить свое распространение среди предприятий и частных лиц. Это предполагает сотрудничество с компаниями для облегчения принятия BSV в качестве способа оплаты и с частными лицами для распространения знаний о BSV и его возможностях.
  • Они также сосредоточены на расширении экосистемы BSV. Это предполагает создание новых приложений и услуг, использующих BSV, и сотрудничество с другими компаниями для включения BSV в их предложения.
Развернуть
Свернуть
Торгуйте популярными токенами и деривативами с низкими комиссиями
Торгуйте популярными токенами и деривативами с низкими комиссиями
Начать

Вопросы и ответы о Bitcoin SV

Что такое BSV и почему это важно?

Биткойн SV (BSV) - это криптовалюта, которая была создана в ноябре 2018 года в результате хард форка с Биткойн Кэш (BCH). Она призвана стать более эффективной и легко расширяемой версией Биткойна. Это достигается за счет большего размера блока, что позволяет обрабатывать больше транзакций на блокчейне.

В чем полезность и преимущества в удерживании BSV?

Ключевым преимуществом блокчейна BSV является его высокая масштабируемость благодаря большому размеру блока. Поскольку большие блоки могут принимать больше транзакций за один раз, блокчейн BSV обрабатывает большое количество транзакций каждую секунду. 

BSV также может похвастаться высокой пропускной способностью, что приводит к быстрой и дешевой обработке транзакций. Поэтому Биткойн SV более эффективен, чем большинство блокчейнов.

Наконец, блокчейн BSV защищен сетью майнеров, которые соревнуются в решении сложных математических задач, чтобы обеспечить его безопасность. Эта особенность повышает безопасность и делает его очень устойчивым к потенциальным атакам.

Где я могу приобрести BSV?

С легкостью покупайте токены BSV на криптовалютной платформе OKX. В терминале спотовой торговли OKX имеются торговые пары BSV/USDT, BSV/USDC и BSV/BTC.

Можно купить BSV и за одну из более чем 99 фиатных валют, выбрав опцию «Экспресс-покупка». Доступны также другие популярные криптовалютные токены, в частности Bitcoin (BTC), Ethereum (ETH), Tether (USDT) и USD Coin (USDC).

Кроме того, на BSV можно обменять такие имеющиеся у вас криптовалюты, как XRP (XRP), Cardano (ADA), Solana (SOL) и Chainlink (LINK), без комиссий и проскальзывания цены с помощью «Конвертации OKX».

Чтобы просмотреть в реальном времени расчетный курс конвертации фиатных валют (например, USD, EUR, GBP и т. п.) в BSV, перейдите в «Калькулятор конвертации криптовалют OKX». Высоколиквидная криптовалютная биржа OKX гарантирует покупку криптовалюты по наилучшим ценам.

Сколько стоит 1 Bitcoin SV сейчас?
Сейчас курс Bitcoin SV составляет $33,3900. На этой странице вы найдете анализ динамики Bitcoin SV. Изучите актуальные графики Bitcoin SV и торгуйте ответственно с OKX.
Что такое криптовалюта?
Криптовалюты (как Bitcoin SV) — это цифровые активы, работающие в общедоступном онлайн-реестре, называемом «блокчейн». На OKX вы найдете множество криптовалют с подробной статистикой в реальном времени — графиками объема и курса и др.
Когда появились криптовалюты?
Интерес к децентрализованным финансам значительно возрос в 2008 году на фоне мирового финансового кризиса. Тогда Bitcoin стал инновационным решением, предложившим надежный цифровой актив, работающий в децентрализованной сети. С тех пор в мире появились тысячи новых токенов, в том числе и Bitcoin SV.
Поднимется ли сегодня цена Bitcoin SV?
Просмотрите Страница прогноза цен на Bitcoin SV, чтобы узнать прогнозы цен и определить целевые цены.

Дисклеймер

Информация о социальных сетях на этой странице («Информация»), в том числе публикации из X и статистика от LunarCrush, предоставлена третьими сторонами и приводится только для справки. OKX не гарантирует качество и точность Информации. Статья не отражает взглядов OKX и не является инвестиционным советом и рекомендацией, предложением или призывом к покупке, продаже и хранению цифровых активов, а также финансовым, бухгалтерским, юридическим или налоговым советом. Цифровые активы, в том числе стейблкоины и NFT, сопряжены с высокими рисками и волатильностью. Цена и доходность цифровых активов не фиксирована и может в любой момент измениться.

OKX не дает рекомендаций по инвестированию и хранению активов. Тщательно оцените свою финансовую ситуацию и определите, подходит ли вам торговля и владение цифровыми активами. По вопросам, связанным с вашими конкретными обстоятельствами, обращайтесь к специалистам в области законодательства, налогов или инвестиций. С подробностями можно ознакомиться, изучив Условия использования и Предупреждение о рисках. Переходя на сайты третьих сторон («Сторонние сайты»), вы принимаете их условия использования. OKX и ее партнеры («OKX») не связаны с владельцами и руководителями Сторонних сайтов, если иное не указано в письменной форме. Вы соглашаетесь с тем, что OKX не несет ответственности за убытки, ущерб и любые другие последствия использования Сторонних сайтов. Помните, что использование Сторонних сайтов может привести к полной или частичной потере активов. Продукт может быть доступен не во всех юрисдикциях.

Калькулятор BSV

USDUSD
BSVBSV
Начните путешествие в мир криптовалют
Начните путешествие в мир криптовалют
Быстрее, лучше, эффективнее обычной криптобиржи