BSV
BSV

Prezzo di Bitcoin SV

$34,4400
-$1,0500
(-2,96%)
Variazione di prezzo da 00:00 UTC fino a ora
USDUSD
Come ti senti oggi circa i BSV?
Condividi i tuoi sentimenti qui mettendo un pollice in su se ti senti rialzista per quanto riguarda la criptovaluta o un pollice in giù se ti senti ribassista.
Vota per vedere i risultati
Scopri il mondo cripto
Scopri il mondo cripto
L'exchange di criptovalute migliore, più veloce e più forte di qualunque altro.

Disclaimer

I contenuti social forniti in questa pagina ("Contenuti"), inclusi, a titolo esemplificativo ma non esaustivo, tweet e statistiche forniti da LunarCrush, provengono da terze parti e vengono forniti "così come sono" esclusivamente a scopo informativo. OKX non garantisce la qualità o la precisione dei Contenuti e i Contenuti non rappresentano il punto di vista di OKX. Non è destinato a fornire (i) consigli o raccomandazioni in materia di investimenti; (ii) un'offerta o una sollecitazione all'acquisto, alla vendita o al possesso di asset digitali; oppure (iii) consigli di natura finanziaria, contabile, legale o fiscale. Gli asset digitali, tra cui stablecoin e NFT, comportano un elevato livello di rischio, sono soggetti a fluttuazioni estreme. Il prezzo e le prestazioni degli asset digitali non sono garantiti e potrebbero variare senza preavviso.

OKX non fornisce raccomandazioni su investimenti o asset. Devi considerare attentamente se il trading o l'holding di asset digitali è adatto a te alla luce della tua condizione finanziaria. Consulta un professionista legale/fiscale/finanziario per domande sulla tua specifica situazione. Per ulteriori dettagli, fai riferimento ai nostri Termini di utilizzo e all'Avviso di rischio. Utilizzando il sito web di terze parti ("TPW"), accetti che qualsiasi utilizzo del TPW sarà soggetto alle condizioni del TPW e disciplinato dalle stesse. Se non espressamente dichiarato per iscritto, OKX e i suoi affiliati ("OKX") non sono associati in alcun modo al proprietario o all'operatore del TPW. Accetti che OKX non è responsabile di eventuali perdite, danni e qualsiasi altra conseguenza derivanti dall'utilizzo del TPW. Tieni presente che l'uso di un TPW potrebbe comportare una perdita o una diminuzione dei tuoi asset. Il prodotto potrebbe non essere disponibile in tutte le giurisdizioni.

Informazioni sul mercato di Bitcoin SV

Capitalizzazione di mercato
La capitalizzazione di mercato viene calcolata moltiplicando l'offerta circolante di una criptovaluta per il suo ultimo prezzo.
Capitalizzazione di mercato = Offerta circolante x Ultimo prezzo
Offerta circolante
L'importo totale di una criptovaluta disponibile pubblicamente sul mercato.
Grado di capitalizzazione di mercato
Il ranking di una criptovaluta in termini di valore della capitalizzazione di mercato.
Massimo storico
Il prezzo massimo di una criptovaluta raggiunto nella sua cronologia di trading.
Minimo storico
Il prezzo minimo di una criptovaluta raggiunto nella sua cronologia di trading.
Capitalizzazione di mercato
$682,00M
Offerta circolante
19.871.822 BSV
94,62% di
21.000.000 BSV
Grado di capitalizzazione di mercato
--
Audit
CertiK
Ultimo audit: 29 dic 2021, (UTC+8)
Massimo ultime 24 ore
$36,8900
Minimo ultime 24 ore
$33,7500
Massimo storico
$492,79
-93,02% (-$458,35)
Ultimo aggiornamento: 17 apr 2021, (UTC+8)
Minimo storico
$15,7000
+119,36% (+$18,7400)
Ultimo aggiornamento: 10 giu 2023, (UTC+8)

Feed di Bitcoin SV

Il seguente contenuto proviene da .
PANews
PANews
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), che è particolarmente ingombrante nel mondo tradizionale del Web2, che spesso è di decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità a catena singola e la struttura integrata, e aggiorna la blockchain da una modalità a thread singolo di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork "big block" come BCH e BSV, e influenzando anche le idee di design delle prime catene pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dal concetto di componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è il paradigma rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche barriere linguistiche più elevate e complessità di sviluppo, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la popolarità del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente accattivante, in quanto combina le moderne tecnologie dei motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela delle pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione a catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. Come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, MegaETH sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice dello smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. La parte più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente e allo stesso tempo trasformare l'intero ambiente di esecuzione e il meccanismo del gas per migrare senza problemi l'ecosistema Solidity in un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dall'esecuzione e dalle pipeline di istruzioni fuori ordine della moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile pianificare e analizzare ogni operazione e riorganizzarla in parallelo nello stesso modo in cui una CPU esegue un set di istruzioni x86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica dei dipendenti dalle istruzioni, il suo parallelismo raggiungerà il limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite di portatore dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano sotto il cofano, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non ribalta la specifica EVM, ma piuttosto cerca di integrare la potenza del calcolo parallelo nel motore di esecuzione dell'EVM esistente, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche estremamente amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento Mempool e i percorsi di cattura MEV secondo strategie parallele, formando un ciclo chiuso di vantaggi economici a livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte superiore allo stack tecnologico Ethereum esistente senza modificare la semantica dei contratti, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato per il supporto ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, abbiamo visto che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": una logica di gioco a catena più complessa, un ciclo di vita dell'agente AI più realistico, un protocollo di scambio dati più in tempo reale, un'esperienza interattiva più immersiva e persino un sistema operativo Super App collaborativo on-chain stanno cambiando da "possiamo farlo" a "quanto bene possiamo farlo". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Proprio come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzione" determinata dal calcolo parallelo sta anche dando vita a un nuovo modello mondiale on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione della fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare dell'EVM tradizionale non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK con prestazioni di gran lunga migliori di EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per la scalabilità nativa Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
43.511
0
Odaily
Odaily
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), particolarmente ingombrante nel mondo tradizionale del Web2, dove spesso vengono utilizzati decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità a catena singola e la struttura integrata, e aggiorna la blockchain da una modalità a thread singolo di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork di fazione "big block" come BCH e BSV, e influenzando anche le idee di design delle prime chain pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dalla componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è stato rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche una soglia di linguaggio e una complessità di sviluppo più elevate, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la divulgazione del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente degno di nota per la sua combinazione di moderne tecnologie di motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela della pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione della catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. MegaETH, come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice degli smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. L'aspetto più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente, rinnovando al contempo l'intero ambiente di esecuzione e il meccanismo del gas per consentire all'ecosistema Solidity di migrare senza problemi verso un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dalla pipeline di istruzioni e esecuzione fuori ordine nella moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile programmare e riorganizzare ogni operazione in parallelo come una CPU che esegue il set di istruzioni x 86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica delle istruzioni dipendenti, il suo parallelismo raggiungerà il suo limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite superiore sopportabile dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano in modo inventivo, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non stravolge la specifica EVM, ma piuttosto cerca di integrare le capacità di calcolo parallelo nel motore di esecuzione degli EVM esistenti, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche molto amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento della mempool e i percorsi di cattura MEV secondo la strategia parallela, formando un ciclo chiuso di vantaggi economici sul livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte rispetto allo stack tecnologico Ethereum esistente senza modificare la semantica del contratto, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato che ha maggiori probabilità di ricevere un sostegno ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, vediamo che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": logiche di gioco a catena più complesse, ciclo di vita degli agenti AI più realistico, protocolli di scambio dati più in tempo reale, esperienze interattive più immersive e persino sistemi operativi Super App collaborativi on-chain stanno tutti cambiando da "possiamo farlo" a "quanto può essere buono". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Così come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzioni" portata avanti dal calcolo parallelo sta anche dando vita a un nuovo modello di mondo on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione nella fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare degli EVM tradizionali non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, che sono tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK che superano di gran lunga l'EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per la scalabilità nativa Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
66.526
1
TechFlow
TechFlow
1. Introduzione: L'espansione è una proposta eterna e il parallelismo è il campo di battaglia definitivo Sin dalla nascita di Bitcoin, il sistema blockchain ha sempre affrontato un problema fondamentale ineludibile: la scalabilità. Bitcoin elabora meno di 10 transazioni al secondo, ed Ethereum fatica a superare il collo di bottiglia delle prestazioni di decine di TPS (transazioni al secondo), che è particolarmente ingombrante nel mondo tradizionale del Web2, che spesso è di decine di migliaia di TPS. Ancora più importante, questo non è un semplice problema che può essere risolto "aggiungendo server", ma una limitazione sistemica profondamente radicata nel consenso sottostante e nel design strutturale della blockchain, ovvero il triangolo impossibile della blockchain in cui "decentralizzazione, sicurezza e scalabilità" non possono essere combinate. Nell'ultimo decennio, abbiamo assistito a innumerevoli tentativi di espansione in ascesa e in diminuzione. Dalla guerra di scalabilità di Bitcoin alla visione dello sharding di Ethereum, dai canali di stato e plasma ai rollup e alle blockchain modulari, dall'esecuzione off-chain in Layer 2 al refactoring strutturale della disponibilità dei dati, l'intero settore ha intrapreso un percorso di scalabilità pieno di immaginazione ingegneristica. Come paradigma di scalabilità più ampiamente accettato, il rollup ha raggiunto l'obiettivo di aumentare significativamente il TPS, riducendo al contempo l'onere di esecuzione della catena principale e preservando la sicurezza di Ethereum. Ma non tocca i limiti reali delle "prestazioni single-chain" sottostanti alla blockchain, soprattutto a livello di esecuzione, che è il throughput del blocco stesso – è ancora limitato dall'antico paradigma di elaborazione del calcolo seriale on-chain. Per questo motivo, il calcolo parallelo in-chain è entrato gradualmente nel campo visivo del settore. A differenza della scalabilità off-chain e della distribuzione cross-chain, il parallelismo intra-chain tenta di ricostruire completamente il motore di esecuzione mantenendo l'atomicità e la struttura integrata di una singola catena, e aggiorna la blockchain da una modalità single-thread di "esecuzione seriale di una transazione per una" a un sistema di calcolo ad alta concorrenza di "multi-threading + pipeline + pianificazione delle dipendenze" sotto la guida del moderno sistema operativo e della progettazione della CPU. Un tale percorso potrebbe non solo ottenere un aumento di cento volte del throughput, ma potrebbe anche diventare un prerequisito chiave per l'esplosione delle applicazioni di smart contract. Infatti, nel paradigma del Web2 computing, il single-threaded computing è stato da tempo eliminato dalle moderne architetture hardware e sostituito da un flusso infinito di modelli di ottimizzazione come la programmazione parallela, la pianificazione asincrona, i pool di thread e i microservizi. La blockchain, in quanto sistema di calcolo più primitivo e conservativo con requisiti estremamente elevati di certezza e verificabilità, non è mai stata in grado di sfruttare appieno queste idee di calcolo parallelo. Questo è sia un limite che un'opportunità. Nuove catene come Solana, Sui e Aptos sono le prime ad avviare questa esplorazione introducendo il parallelismo a livello architettonico. Progetti emergenti come Monad e MegaETH hanno ulteriormente elevato il parallelismo on-chain a scoperte in meccanismi profondi come l'esecuzione delle pipeline, la concorrenza ottimistica e l'asincrono message-driven, mostrando caratteristiche che si stanno avvicinando sempre di più ai moderni sistemi operativi. Si può dire che il calcolo parallelo non è solo un "metodo di ottimizzazione delle prestazioni", ma anche un punto di svolta nel paradigma del modello di esecuzione blockchain. Sfida i modelli fondamentali dell'esecuzione degli smart contract e ridefinisce la logica di base del packaging delle transazioni, dell'accesso allo stato, delle relazioni di chiamata e del layout di archiviazione. Se il rollup consiste nel "spostare le transazioni nell'esecuzione off-chain", il parallelismo on-chain consiste nel "costruire core di supercalcolo on-chain" e il suo obiettivo non è semplicemente migliorare il throughput, ma fornire un supporto infrastrutturale veramente sostenibile per le future applicazioni native del Web3 (trading ad alta frequenza, motori di gioco, esecuzione di modelli AI, social on-chain, ecc.). Dopo che il percorso di rollup tende gradualmente ad essere omogeneo, il parallelismo intra-chain sta silenziosamente diventando la variabile decisiva del nuovo ciclo di competizione Layer 1. Le prestazioni non sono più solo "più veloci", ma la possibilità di poter supportare un intero mondo applicativo eterogeneo. Questa non è solo una gara tecnica, ma anche una battaglia di paradigma. È probabile che la prossima generazione di piattaforme di esecuzione sovrana nel mondo Web3 emerga da questo wrestling parallelo intra-chain. 2. Panorama del paradigma di espansione: cinque tipi di percorsi, ognuno con la propria enfasi L'espansione della capacità, come uno dei temi più importanti, sostenuti e difficili nell'evoluzione della tecnologia della catena pubblica, ha dato vita all'emergere e all'evoluzione di quasi tutti i percorsi tecnologici mainstream nell'ultimo decennio. Partendo dalla battaglia sulla dimensione del blocco di Bitcoin, questa competizione tecnica su "come far correre la catena più veloce" si è infine divisa in cinque percorsi di base, ognuno dei quali taglia il collo di bottiglia da un'angolazione diversa, con la propria filosofia tecnica, difficoltà di atterraggio, modello di rischio e scenari applicabili. Il primo percorso è il ridimensionamento on-chain più semplice, che significa aumentare la dimensione del blocco, accorciare il tempo di blocco o migliorare la potenza di elaborazione ottimizzando la struttura dei dati e il meccanismo di consenso. Questo approccio è stato al centro del dibattito sulla scalabilità di Bitcoin, dando origine a fork "big block" come BCH e BSV, e influenzando anche le idee di design delle prime catene pubbliche ad alte prestazioni come EOS e NEO. Il vantaggio di questo tipo di percorso è che mantiene la semplicità della coerenza a catena singola, che è facile da capire e implementare, ma è anche molto facile toccare il limite superiore sistemico come il rischio di centralizzazione, l'aumento dei costi operativi dei nodi e l'aumento della difficoltà di sincronizzazione, quindi non è più la soluzione principale nella progettazione odierna, ma è diventata più una collocazione ausiliaria di altri meccanismi. Il secondo tipo di route è il ridimensionamento off-chain, che è rappresentato da canali di stato e sidechain. L'idea di base di questo tipo di percorso è quella di spostare la maggior parte dell'attività di transazione off-chain e scrivere solo il risultato finale nella catena principale, che funge da livello di regolamento finale. In termini di filosofia tecnica, è vicino all'architettura asincrona del Web2: prova a lasciare l'elaborazione delle transazioni pesante alla periferia e la catena principale esegue una verifica affidabile minima. Sebbene questa idea possa teoricamente essere scalabile all'infinito, il modello di fiducia, la sicurezza dei fondi e la complessità di interazione delle transazioni off-chain ne limitano l'applicazione. Ad esempio, sebbene Lightning Network abbia un chiaro posizionamento degli scenari finanziari, la scala dell'ecosistema non è mai esplosa. Tuttavia, più progetti basati su sidechain, come Polygon POS, non solo hanno un throughput elevato, ma espongono anche gli svantaggi della difficile ereditarietà della sicurezza della catena principale. Il terzo tipo di route è la route rollup di livello 2 più diffusa e distribuita. Questo metodo non modifica direttamente la catena principale stessa, ma scala attraverso il meccanismo di esecuzione off-chain e verifica on-chain. L'Optimistic Rollup e lo ZK Rollup hanno i loro vantaggi: il primo è veloce da implementare e altamente compatibile, ma presenta i problemi del ritardo del periodo di sfida e del meccanismo a prova di frode; Quest'ultimo ha una forte sicurezza e buone capacità di compressione dei dati, ma è complesso da sviluppare e manca di compatibilità EVM. Indipendentemente dal tipo di rollup, la sua essenza è quella di esternalizzare la potenza di esecuzione, mantenendo i dati e la verifica sulla catena principale, raggiungendo un relativo equilibrio tra decentralizzazione e prestazioni elevate. La rapida crescita di progetti come Arbitrum, Optimism, zkSync e StarkNet dimostra la fattibilità di questo percorso, ma mette anche in luce colli di bottiglia a medio termine come l'eccessiva dipendenza dalla disponibilità dei dati (DA), i costi elevati e l'esperienza di sviluppo frammentata. Il quarto tipo di percorso è l'architettura blockchain modulare che è emersa negli ultimi anni, come Celestia, Avail, EigenLayer, ecc. Il paradigma modulare sostiene il completo disaccoppiamento delle funzioni principali della blockchain - esecuzione, consenso, disponibilità dei dati e regolamento - da parte di più catene specializzate per completare diverse funzioni, e quindi combinarle in una rete scalabile con un protocollo cross-chain. Questa direzione è fortemente influenzata dall'architettura modulare del sistema operativo e dal concetto di componibilità del cloud computing, che ha il vantaggio di poter sostituire in modo flessibile i componenti del sistema e migliorare notevolmente l'efficienza in ambiti specifici come la DA. Tuttavia, le sfide sono anche molto evidenti: il costo della sincronizzazione, della verifica e della fiducia reciproca tra i sistemi dopo il disaccoppiamento dei moduli è estremamente elevato, l'ecosistema degli sviluppatori è estremamente frammentato e i requisiti per gli standard di protocollo a medio e lungo termine e la sicurezza cross-chain sono molto più elevati rispetto a quelli della progettazione tradizionale della catena. In sostanza, questo modello non costruisce più una "catena", ma una "rete a catena", che propone una soglia senza precedenti per la comprensione dell'architettura complessiva, il funzionamento e la manutenzione. L'ultimo tipo di percorso, che è il fulcro della successiva analisi in questo articolo, è il percorso di ottimizzazione del calcolo parallelo intra-chain. A differenza dei primi quattro tipi di "scissione orizzontale", che effettuano principalmente la "scissione orizzontale" dal livello strutturale, il calcolo parallelo enfatizza l'"upgrading verticale", ovvero l'elaborazione simultanea delle transazioni atomiche viene realizzata modificando l'architettura del motore di esecuzione all'interno di una singola catena. Ciò richiede la riscrittura della logica di pianificazione delle macchine virtuali e l'introduzione di un set completo di meccanismi di pianificazione dei sistemi informatici moderni, ad esempio l'analisi delle dipendenze delle transazioni, la previsione dei conflitti di stato, il controllo del parallelismo e la chiamata asincrona. Solana è il primo progetto a implementare il concetto di VM parallela in un sistema a livello di catena, che realizza l'esecuzione parallela multi-core attraverso il giudizio dei conflitti di transazione basato sul modello di account. La nuova generazione di progetti, come Monad, Sei, Fuel, MegaETH, ecc., cerca inoltre di introdurre idee all'avanguardia come l'esecuzione della pipeline, la concorrenza ottimistica, il partizionamento dello storage e il disaccoppiamento parallelo per costruire core di esecuzione ad alte prestazioni simili alle moderne CPU. Il vantaggio principale di questa direzione è che non ha bisogno di fare affidamento sull'architettura multi-chain per ottenere una svolta nel limite di throughput e allo stesso tempo fornisce una flessibilità di calcolo sufficiente per l'esecuzione di contratti intelligenti complessi, che è un importante prerequisito tecnico per futuri scenari applicativi come AI Agent, giochi a catena su larga scala e derivati ad alta frequenza. Guardando i cinque tipi di percorsi di scalabilità di cui sopra, la divisione dietro di essi è in realtà il compromesso sistematico tra prestazioni, componibilità, sicurezza e complessità di sviluppo della blockchain. Il rollup è forte nell'outsourcing del consenso e nell'ereditarietà sicura, la modularità evidenzia la flessibilità strutturale e il riutilizzo dei componenti, lo scaling off-chain tenta di sfondare il collo di bottiglia della catena principale ma il costo di fiducia è elevato e il parallelismo intra-chain si concentra sull'aggiornamento fondamentale del livello di esecuzione, cercando di avvicinarsi al limite di prestazioni dei moderni sistemi distribuiti senza distruggere la coerenza della catena. È impossibile che ogni percorso risolva tutti i problemi, ma sono queste direzioni che insieme formano un panorama dell'aggiornamento del paradigma di calcolo Web3 e forniscono anche a sviluppatori, architetti e investitori opzioni strategiche estremamente ricche. Proprio come il sistema operativo è passato da single-core a multi-core e i database si sono evoluti da indici sequenziali a transazioni simultanee, l'espansione del Web3 finirà per spostarsi verso un'era di esecuzione altamente parallela. In quest'epoca, le prestazioni non sono più solo una corsa alla velocità a catena, ma un'incarnazione completa della filosofia di progettazione sottostante, della profonda comprensione dell'architettura, della collaborazione software e hardware e del controllo del sistema. E il parallelismo intra-chain potrebbe essere il campo di battaglia finale di questa guerra a lungo termine. 3. Grafico di classificazione del calcolo parallelo: cinque percorsi dall'account all'istruzione Nel contesto della continua evoluzione della tecnologia di scalabilità blockchain, il calcolo parallelo è diventato gradualmente il percorso principale per le scoperte in termini di prestazioni. A differenza del disaccoppiamento orizzontale del livello della struttura, del livello di rete o del livello di disponibilità dei dati, il calcolo parallelo è un mining profondo a livello di esecuzione, che è correlato alla logica più bassa dell'efficienza operativa della blockchain e determina la velocità di risposta e la capacità di elaborazione di un sistema blockchain a fronte di un'elevata concorrenza e di transazioni complesse di tipo multiplo. Partendo dal modello di esecuzione e rivedendo lo sviluppo di questa linea tecnologica, possiamo ordinare una chiara mappa di classificazione del calcolo parallelo, che può essere approssimativamente suddivisa in cinque percorsi tecnici: parallelismo a livello di account, parallelismo a livello di oggetto, parallelismo a livello di transazione, parallelismo a livello di macchina virtuale e parallelismo a livello di istruzione. Questi cinque tipi di percorsi, da quelli a grana grossa a quelli a grana fine, non sono solo il processo di raffinamento continuo della logica parallela, ma anche il percorso di crescente complessità del sistema e difficoltà di programmazione. Il primo parallelismo a livello di account è il paradigma rappresentato da Solana. Questo modello si basa sulla progettazione del disaccoppiamento di conto e stato e determina se esiste una relazione conflittuale analizzando staticamente l'insieme di conti coinvolti nella transazione. Se due transazioni accedono a un insieme di conti che non si sovrappongono tra loro, possono essere eseguite contemporaneamente su più core. Questo meccanismo è ideale per gestire transazioni ben strutturate con input e output chiari, soprattutto per programmi con percorsi prevedibili come la DeFi. Tuttavia, il suo presupposto naturale è che l'accesso all'account sia prevedibile e che la dipendenza dallo stato possa essere dedotta staticamente, il che lo rende incline a un'esecuzione conservativa e a un parallelismo ridotto di fronte a contratti intelligenti complessi (come comportamenti dinamici come giochi a catena e agenti di intelligenza artificiale). Inoltre, la dipendenza incrociata tra i conti rende anche i rendimenti paralleli gravemente indeboliti in alcuni scenari di trading ad alta frequenza. Il runtime di Solana è altamente ottimizzato in questo senso, ma la sua strategia di pianificazione di base è ancora limitata dalla granularità dell'account. Sulla base del modello di conto, entriamo nel livello tecnico del parallelismo a livello di oggetto. Il parallelismo a livello di oggetto introduce l'astrazione semantica di risorse e moduli, con la pianificazione simultanea in unità più dettagliate di "oggetti di stato". Aptos e Sui sono importanti esploratori in questa direzione, in particolare quest'ultimo, che definisce la proprietà e la variabilità delle risorse in fase di compilazione attraverso il sistema di tipi lineari del linguaggio Move, consentendo al runtime di controllare con precisione i conflitti di accesso alle risorse. Rispetto al parallelismo a livello di account, questo metodo è più versatile e scalabile, può coprire una logica di lettura e scrittura di stato più complessa e serve naturalmente scenari altamente eterogenei come giochi, social network e intelligenza artificiale. Tuttavia, il parallelismo a livello di oggetto introduce anche barriere linguistiche più elevate e complessità di sviluppo, e Move non è un sostituto diretto di Solidity, e l'alto costo della commutazione ecologica limita la popolarità del suo paradigma parallelo. Un ulteriore parallelismo a livello di transazione è la direzione esplorata dalla nuova generazione di catene ad alte prestazioni rappresentata da Monad, Sei e Fuel. Invece di considerare gli stati o i conti come l'unità di parallelismo più piccola, il percorso viene costruito attorno a un grafico delle dipendenze intorno all'intera transazione stessa. Considera le transazioni come unità operative atomiche, crea grafici delle transazioni (DAG di transazione) tramite analisi statica o dinamica e si basa su pianificatori per l'esecuzione simultanea del flusso. Questo design consente al sistema di massimizzare il parallelismo del mining senza dover comprendere appieno la struttura di stato sottostante. Monad è particolarmente accattivante, in quanto combina le moderne tecnologie dei motori di database come il controllo della concorrenza ottimistica (OCC), la pianificazione parallela delle pipeline e l'esecuzione fuori ordine, avvicinando l'esecuzione a catena al paradigma dello "scheduler GPU". In pratica, questo meccanismo richiede gestori delle dipendenze e rilevatori di conflitti estremamente complessi, e lo scheduler stesso può anche diventare un collo di bottiglia, ma la sua capacità di throughput potenziale è molto più alta di quella dell'account o del modello a oggetti, rendendolo la forza più teorica nell'attuale percorso di calcolo parallelo. Il parallelismo a livello di macchina virtuale, d'altra parte, incorpora le funzionalità di esecuzione simultanea direttamente nella logica di pianificazione delle istruzioni sottostante della VM, cercando di superare completamente le limitazioni intrinseche dell'esecuzione della sequenza EVM. Come "esperimento di super macchina virtuale" all'interno dell'ecosistema Ethereum, MegaETH sta cercando di riprogettare l'EVM per supportare l'esecuzione simultanea multi-thread del codice dello smart contract. Il livello sottostante consente l'esecuzione indipendente di ogni contratto in contesti di esecuzione diversi attraverso meccanismi quali l'esecuzione segmentata, la segmentazione dello stato e la chiamata asincrona e garantisce la coerenza finale con l'aiuto di un livello di sincronizzazione parallela. La parte più difficile di questo approccio è che deve essere pienamente compatibile con la semantica del comportamento EVM esistente e allo stesso tempo trasformare l'intero ambiente di esecuzione e il meccanismo del gas per migrare senza problemi l'ecosistema Solidity in un framework parallelo. La sfida non è solo la profondità dello stack tecnologico, ma anche l'accettazione di modifiche significative al protocollo della struttura politica L1 di Ethereum. Ma in caso di successo, MegaETH promette di essere una "rivoluzione dei processori multi-core" nello spazio EVM. L'ultimo tipo di percorso è il parallelismo a livello di istruzione, che è il più dettagliato e ha la soglia tecnica più alta. L'idea deriva dall'esecuzione e dalle pipeline di istruzioni fuori ordine della moderna progettazione delle CPU. Questo paradigma sostiene che, poiché ogni smart contract viene infine compilato in istruzioni bytecode, è del tutto possibile pianificare e analizzare ogni operazione e riorganizzarla in parallelo nello stesso modo in cui una CPU esegue un set di istruzioni x86. Il team di Fuel ha inizialmente introdotto un modello di esecuzione riordinabile a livello di istruzione nella sua FuelVM e, a lungo termine, una volta che il motore di esecuzione blockchain implementerà l'esecuzione predittiva e la riorganizzazione dinamica dei dipendenti dalle istruzioni, il suo parallelismo raggiungerà il limite teorico. Questo approccio potrebbe persino portare la co-progettazione blockchain-hardware a un livello completamente nuovo, rendendo la catena un vero e proprio "computer decentralizzato" piuttosto che un semplice "libro mastro distribuito". Naturalmente, questo percorso è ancora in fase teorica e sperimentale, e i relativi scheduler e meccanismi di verifica della sicurezza non sono ancora maturi, ma punta al confine ultimo del futuro del calcolo parallelo. In sintesi, i cinque percorsi di account, object, transaction, VM e instruction costituiscono lo spettro di sviluppo del calcolo parallelo intra-chain, dalla struttura statica dei dati al meccanismo di pianificazione dinamica, dalla previsione dell'accesso allo stato al riarrangiamento a livello di istruzione, ogni fase della tecnologia parallela significa un aumento significativo della complessità del sistema e della soglia di sviluppo. Ma allo stesso tempo, segnano anche un cambiamento di paradigma nel modello di calcolo della blockchain, dal tradizionale registro di consenso a sequenza completa a un ambiente di esecuzione distribuito ad alte prestazioni, prevedibile e dispacciabile. Questo non è solo un recupero dell'efficienza del cloud computing Web2, ma anche una profonda concezione della forma definitiva di "computer blockchain". La selezione di percorsi paralleli per diverse catene pubbliche determinerà anche il limite di portatore dei loro futuri ecosistemi applicativi, nonché la loro competitività di base in scenari come l'agente AI, i giochi a catena e il trading ad alta frequenza on-chain. In quarto luogo, vengono spiegati i due percorsi principali: Monad vs MegaETH Tra i molteplici percorsi di evoluzione del calcolo parallelo, i due principali percorsi tecnici con il maggior focus, la voce più alta e la narrazione più completa nel mercato attuale sono senza dubbio la "costruzione di una catena di calcolo parallelo da zero" rappresentata da Monad e la "rivoluzione parallela all'interno dell'EVM" rappresentata da MegaETH. Queste due direzioni non sono solo le direzioni di ricerca e sviluppo più intense per gli attuali ingegneri primitivi crittografici, ma anche i simboli polari più decisivi nell'attuale corsa alle prestazioni dei computer Web3. La differenza tra i due risiede non solo nel punto di partenza e nello stile dell'architettura tecnica, ma anche negli oggetti ecologici che servono, nel costo della migrazione, nella filosofia di esecuzione e nel futuro percorso strategico dietro di essi. Esse rappresentano una competizione paradigmatica parallela tra "ricostruzionismo" e "compatibilismo" e hanno profondamente influenzato l'immaginazione del mercato sulla forma finale delle catene ad alte prestazioni. Monad è un "fondamentalista computazionale" in tutto e per tutto, e la sua filosofia di progettazione non è progettata per essere compatibile con gli EVM esistenti, ma piuttosto per ridefinire il modo in cui i motori di esecuzione blockchain funzionano sotto il cofano, traendo ispirazione dai moderni database e dai sistemi multi-core ad alte prestazioni. Il suo sistema tecnologico di base si basa su meccanismi maturi nel campo dei database come il controllo della concorrenza ottimistica, la pianificazione DAG delle transazioni, l'esecuzione fuori ordine e l'esecuzione in pipeline, con l'obiettivo di aumentare le prestazioni di elaborazione delle transazioni della catena nell'ordine di milioni di TPS. Nell'architettura Monad, l'esecuzione e l'ordinamento delle transazioni sono completamente disaccoppiati e il sistema prima costruisce un grafico delle dipendenze delle transazioni, quindi lo passa allo scheduler per l'esecuzione parallela. Tutte le transazioni vengono trattate come unità atomiche di transazioni, con set di lettura/scrittura espliciti e snapshot dello stato, e le utilità di pianificazione vengono eseguite in modo ottimistico in base ai grafici delle dipendenze, eseguendo il rollback e la riesecuzione quando si verificano conflitti. Questo meccanismo è estremamente complesso in termini di implementazione tecnica, richiedendo la costruzione di uno stack di esecuzione simile a quello di un moderno gestore di transazioni di database, nonché l'introduzione di meccanismi come il caching multilivello, il prefetching, la validazione parallela, ecc., per comprimere la latenza del commit dello stato finale, ma può teoricamente spingere il limite di throughput ad altezze che non sono immaginate dalla catena corrente. Ancora più importante, Monad non ha rinunciato all'interoperabilità con l'EVM. Utilizza un livello intermedio simile a "Solidity-Compatible Intermediate Language" per supportare gli sviluppatori nella scrittura di contratti nella sintassi Solidity e allo stesso tempo eseguire l'ottimizzazione del linguaggio intermedio e la pianificazione della parallelizzazione nel motore di esecuzione. Questa strategia di progettazione di "compatibilità di superficie e refactoring del fondo" non solo mantiene la cordialità degli sviluppatori ecologici di Ethereum, ma libera anche il potenziale di esecuzione sottostante nella massima misura, che è una tipica strategia tecnica di "ingoiare l'EVM e poi decostruirlo". Ciò significa anche che, una volta lanciato, Monad non solo diventerà una catena sovrana con prestazioni estreme, ma anche un livello di esecuzione ideale per le reti rollup di livello 2 e persino un "core pluggable ad alte prestazioni" per altri moduli di esecuzione a catena a lungo termine. Da questo punto di vista, Monad non è solo un percorso tecnico, ma anche una nuova logica di progettazione della sovranità del sistema, che sostiene la "modularizzazione-prestazioni-riusabilità" del livello di esecuzione, così da creare un nuovo standard per il calcolo collaborativo inter-chain. A differenza della posizione di Monad "new world builder", MegaETH è un tipo di progetto completamente opposto, che sceglie di partire dal mondo esistente di Ethereum e ottenere un aumento significativo dell'efficienza di esecuzione con costi di modifica minimi. MegaETH non ribalta la specifica EVM, ma piuttosto cerca di integrare la potenza del calcolo parallelo nel motore di esecuzione dell'EVM esistente, creando una versione futura dell'"EVM multi-core". La logica risiede in un refactoring completo dell'attuale modello di esecuzione delle istruzioni EVM con funzionalità come l'isolamento a livello di thread, l'esecuzione asincrona a livello di contratto e il rilevamento dei conflitti di accesso allo stato, consentendo l'esecuzione simultanea di più contratti intelligenti nello stesso blocco e infine l'unione delle modifiche di stato. Questo modello richiede agli sviluppatori di ottenere significativi guadagni in termini di prestazioni dallo stesso contratto distribuito sulla catena MegaETH senza modificare i contratti Solidity esistenti, utilizzando nuovi linguaggi o toolchain. Questo percorso di "rivoluzione conservativa" è estremamente attraente, soprattutto per l'ecosistema Ethereum L2, in quanto fornisce un percorso ideale per aggiornamenti delle prestazioni indolori senza la necessità di migrare la sintassi. La svolta principale di MegaETH risiede nel suo meccanismo di pianificazione multi-thread VM. Gli EVM tradizionali utilizzano un modello di esecuzione stacked a thread singolo, in cui ogni istruzione viene eseguita in modo lineare e gli aggiornamenti di stato devono avvenire in modo sincrono. MegaETH rompe questo schema e introduce uno stack di chiamate asincrone e un meccanismo di isolamento del contesto di esecuzione, in modo da ottenere l'esecuzione simultanea di "contesti EVM concorrenti". Ogni contratto può richiamare la propria logica in un thread separato e tutti i thread rileveranno e convergeranno uniformemente lo stato attraverso il livello di commit parallelo quando lo stato viene infine inviato. Questo meccanismo è molto simile al modello multithreading JavaScript dei browser moderni (Web Workers + Shared Memory + Lock-Free Data), che mantiene il determinismo del comportamento del thread principale e introduce un meccanismo di pianificazione ad alte prestazioni che è asincrono in background. In pratica, questo design è anche estremamente amichevole per i costruttori di blocchi e i ricercatori e può ottimizzare l'ordinamento Mempool e i percorsi di cattura MEV secondo strategie parallele, formando un ciclo chiuso di vantaggi economici a livello di esecuzione. Ancora più importante, MegaETH sceglie di essere profondamente legato all'ecosistema Ethereum e il suo principale punto di approdo in futuro sarà probabilmente una rete EVM L2 Rollup, come Optimism, Base o Arbitrum Orbit chain. Una volta adottato su larga scala, può ottenere un miglioramento delle prestazioni di quasi 100 volte superiore allo stack tecnologico Ethereum esistente senza modificare la semantica dei contratti, il modello di stato, la logica del gas, i metodi di invocazione, ecc., il che lo rende una direzione di aggiornamento tecnologico interessante per i conservatori EVM. Il paradigma di MegaETH è: finché stai ancora facendo cose su Ethereum, allora lascerò che le tue prestazioni di calcolo salgano alle stelle. Dal punto di vista del realismo e dell'ingegneria, è più facile da implementare rispetto a Monad, ed è più in linea con il percorso iterativo dei principali progetti DeFi e NFT, il che lo rende un candidato per il supporto ecologico a breve termine. In un certo senso, le due strade di Monad e MegaETH non sono solo due implementazioni di percorsi tecnologici paralleli, ma anche un classico confronto tra "refactoring" e "compatibilità" nel percorso di sviluppo della blockchain: la prima persegue una svolta di paradigma e ricostruisce tutta la logica dalle macchine virtuali alla gestione dello stato sottostante per ottenere prestazioni e plasticità architetturale definitive; Quest'ultimo persegue l'ottimizzazione incrementale, spingendo al limite i sistemi tradizionali nel rispetto dei vincoli ecologici esistenti, minimizzando così i costi di migrazione. Non ci sono vantaggi o svantaggi assoluti tra i due, ma servono diversi gruppi di sviluppatori e visioni dell'ecosistema. Monad è più adatto per la creazione di nuovi sistemi da zero, giochi a catena che perseguono un throughput estremo, agenti di intelligenza artificiale e catene di esecuzione modulari. MegaETH, d'altra parte, è più adatto per progetti L2, progetti DeFi e protocolli infrastrutturali che vogliono ottenere aggiornamenti delle prestazioni con modifiche di sviluppo minime. Sono come treni ad alta velocità su un nuovo binario, ridefiniti dal binario, dalla rete elettrica alla carrozzeria dell'auto, solo per raggiungere una velocità e un'esperienza senza precedenti; Un altro esempio è l'installazione di turbine sulle autostrade esistenti, il miglioramento della programmazione delle corsie e della struttura del motore, consentendo ai veicoli di andare più veloci senza lasciare la rete stradale familiare. Le due cose potrebbero finire allo stesso modo: nella prossima fase delle architetture blockchain modulari, Monad potrebbe diventare un modulo "execution-as-a-service" per i Rollup, e MegaETH potrebbe diventare un plugin di accelerazione delle prestazioni per i L2 mainstream. I due potrebbero eventualmente convergere per formare le due ali del motore di esecuzione distribuita ad alte prestazioni nel futuro mondo Web3. 5. Opportunità e sfide future del calcolo parallelo Man mano che il calcolo parallelo passa dalla progettazione cartacea all'implementazione on-chain, il potenziale che sblocca sta diventando più concreto e misurabile. Da un lato, abbiamo visto che nuovi paradigmi di sviluppo e modelli di business hanno iniziato a ridefinire le "prestazioni on-chain": una logica di gioco a catena più complessa, un ciclo di vita dell'agente AI più realistico, un protocollo di scambio dati più in tempo reale, un'esperienza interattiva più immersiva e persino un sistema operativo Super App collaborativo on-chain stanno cambiando da "possiamo farlo" a "quanto bene possiamo farlo". D'altra parte, ciò che guida davvero la transizione al calcolo parallelo non è solo il miglioramento lineare delle prestazioni del sistema, ma anche il cambiamento strutturale dei confini cognitivi degli sviluppatori e dei costi di migrazione ecologica. Proprio come l'introduzione del meccanismo di contratto Turing-complete da parte di Ethereum ha dato vita all'esplosione multidimensionale di DeFi, NFT e DAO, la "ricostruzione asincrona tra stato e istruzione" determinata dal calcolo parallelo sta anche dando vita a un nuovo modello mondiale on-chain, che non è solo una rivoluzione nell'efficienza di esecuzione, ma anche un focolaio di innovazione della fissione nella struttura del prodotto. Innanzitutto, dal punto di vista delle opportunità, il vantaggio più diretto è l'"innalzamento del tetto delle candidature". La maggior parte delle attuali applicazioni DeFi, di gioco e social sono limitate da colli di bottiglia statali, costi del gas e latenza e non possono realmente trasportare interazioni ad alta frequenza sulla catena su larga scala. Prendendo come esempio i giochi a catena, il GameFi con feedback di movimento reale, sincronizzazione del comportamento ad alta frequenza e logica di combattimento in tempo reale quasi non esiste, perché l'esecuzione lineare dell'EVM tradizionale non può supportare la conferma della trasmissione di dozzine di cambiamenti di stato al secondo. Con il supporto del calcolo parallelo, attraverso meccanismi come i DAG transazionali e i contesti asincroni a livello di contratto, è possibile costruire catene ad alta concorrenza e garantire risultati di esecuzione deterministici attraverso la coerenza degli snapshot, in modo da ottenere una svolta strutturale nel "motore di gioco on-chain". Analogamente, anche l'implementazione e il funzionamento degli agenti di IA saranno notevolmente migliorati dal calcolo parallelo. In passato, tendevamo a eseguire gli agenti di intelligenza artificiale off-chain e a caricare i risultati del loro comportamento solo su contratti on-chain, ma in futuro l'on-chain può supportare la collaborazione asincrona e la condivisione dello stato tra più entità di intelligenza artificiale attraverso la pianificazione parallela delle transazioni, in modo da realizzare veramente la logica autonoma in tempo reale dell'agente on-chain. Il calcolo parallelo sarà l'infrastruttura per questo "contratto guidato dal comportamento", guidando il Web3 da una "transazione come risorsa" a un nuovo mondo di "interazione come agente". In secondo luogo, anche la toolchain di sviluppo e il livello di astrazione della macchina virtuale sono stati rimodellati strutturalmente a causa della parallelizzazione. Il tradizionale paradigma di sviluppo di Solidity si basa su un modello di pensiero seriale, in cui gli sviluppatori sono abituati a progettare la logica come un cambiamento di stato a thread singolo, ma nelle architetture di calcolo parallelo, gli sviluppatori saranno costretti a pensare ai conflitti di set di lettura/scrittura, alle politiche di isolamento dello stato, all'atomicità delle transazioni e persino a introdurre modelli architettonici basati su code di messaggi o pipeline di stato. Questo salto nella struttura cognitiva ha anche dato vita alla rapida ascesa di una nuova generazione di catene di strumenti. Ad esempio, i framework di smart contract paralleli che supportano le dichiarazioni di dipendenza transazionale, i compilatori di ottimizzazione basati su IR e i debugger concorrenti che supportano la simulazione di snapshot delle transazioni diventeranno tutti focolai di esplosioni dell'infrastruttura nel nuovo ciclo. Allo stesso tempo, la continua evoluzione delle blockchain modulari ha portato anche un eccellente percorso di atterraggio per il calcolo parallelo: Monad può essere inserito in L2 Rollup come modulo di esecuzione, MegaETH può essere implementato come sostituto EVM per le catene mainstream, Celestia fornisce il supporto del livello di disponibilità dei dati e EigenLayer fornisce una rete di validatori decentralizzata, formando così un'architettura integrata ad alte prestazioni dai dati sottostanti alla logica di esecuzione. Tuttavia, l'avanzamento del calcolo parallelo non è una strada facile e le sfide sono ancora più strutturali e difficili da rosicchiare rispetto alle opportunità. Da un lato, le principali difficoltà tecniche risiedono nella "garanzia di coerenza della concorrenza statale" e nella "strategia di gestione dei conflitti di transazione". A differenza dei database off-chain, l'on-chain non può tollerare un grado arbitrario di rollback delle transazioni o di retrazione dello stato, ed eventuali conflitti di esecuzione devono essere modellati in anticipo o controllati con precisione durante l'evento. Ciò significa che l'utilità di pianificazione parallela deve disporre di forti funzionalità di costruzione del grafico delle dipendenze e di previsione dei conflitti e allo stesso tempo progettare un meccanismo di tolleranza agli errori di esecuzione ottimistico efficiente, altrimenti il sistema è soggetto a "tempesta di tentativi di errore simultaneo" in condizioni di carico elevato, che non solo aumenta ma diminuisce e causa persino l'instabilità della catena. Inoltre, l'attuale modello di sicurezza dell'ambiente di esecuzione multi-thread non è ancora stato completamente stabilito, come la precisione del meccanismo di isolamento dello stato tra i thread, il nuovo utilizzo di attacchi di re-entrancy in contesti asincroni e l'esplosione di gas di chiamate di contratto cross-threaded, tutti nuovi problemi che devono essere risolti. Le sfide più insidiose derivano da aspetti ecologici e psicologici. Se gli sviluppatori sono disposti a migrare verso il nuovo paradigma, se sono in grado di padroneggiare i metodi di progettazione dei modelli paralleli e se sono disposti a rinunciare ad una certa leggibilità e verificabilità contrattuale per ottenere vantaggi in termini di prestazioni sono la chiave per stabilire se il calcolo parallelo può formare energia potenziale ecologica. Negli ultimi anni, abbiamo visto un certo numero di catene con prestazioni superiori ma prive di supporto per gli sviluppatori cadere gradualmente in silenzio, come NEAR, Avalanche e persino alcune catene Cosmos SDK con prestazioni di gran lunga migliori di EVM, e la loro esperienza ci ricorda che senza sviluppatori non c'è ecosistema; Senza ecologia, non importa quanto siano buone le prestazioni, è solo un castello in aria. Pertanto, i progetti di calcolo parallelo non dovrebbero solo realizzare il motore più potente, ma anche realizzare il percorso di transizione ecologica più delicato, in modo che "le prestazioni siano il pronto all'uso" piuttosto che "le prestazioni siano la soglia cognitiva". In definitiva, il futuro del calcolo parallelo è sia un trionfo per l'ingegneria dei sistemi che un test per l'eco-design. Ci costringerà a riesaminare "qual è l'essenza della catena": è una macchina di regolamento decentralizzata o un orchestratore statale in tempo reale distribuito a livello globale? In quest'ultimo caso, le capacità di throughput statale, concorrenza delle transazioni e reattività ai contratti, che in precedenza erano considerate "dettagli tecnici della catena", diventeranno alla fine gli indicatori primari che definiscono il valore della catena. Il paradigma di calcolo parallelo che completerà veramente questa transizione diventerà anche la primitiva dell'infrastruttura più core e più composta in questo nuovo ciclo, e il suo impatto andrà ben oltre un modulo tecnico e potrebbe costituire un punto di svolta nel paradigma di calcolo complessivo del Web3. 6. Conclusione: il calcolo parallelo è il percorso migliore per l'espansione nativa del Web3? Di tutti i percorsi che esplorano i confini delle prestazioni Web3, il calcolo parallelo non è il più facile da implementare, ma potrebbe essere il più vicino all'essenza della blockchain. Non migra off-chain, né sacrifica la decentralizzazione in cambio del throughput, ma cerca di ricostruire il modello di esecuzione stesso nell'atomicità e nel determinismo della catena, dal livello di transazione, dal livello di contratto e dal livello di macchina virtuale alla radice del collo di bottiglia delle prestazioni. Questo metodo di scalabilità "nativo della catena" non solo mantiene il modello di fiducia di base della blockchain, ma riserva anche un terreno di prestazioni sostenibili per applicazioni on-chain più complesse in futuro. La sua difficoltà sta nella struttura, e il suo fascino sta nella struttura. Se il refactoring modulare è l'"architettura della catena", allora il refactoring del calcolo parallelo è "l'anima della catena". Questa potrebbe non essere una scorciatoia per lo sdoganamento, ma è probabile che sia l'unica soluzione positiva sostenibile nell'evoluzione a lungo termine del Web3. Stiamo assistendo a una transizione architetturale da CPU single-core a sistemi operativi multi-core/threaded e l'aspetto di sistemi operativi nativi Web3 potrebbe essere nascosto in questi esperimenti paralleli in-chain.
Mostra originale
68.410
1
charker 📱
charker 📱
Non riesco a credere che Satoshi abbia ancora tutti i suoi BCH e BSV. Lancette di diamanti letterali.
Mostra originale
4.411
16
有故事的NPC
有故事的NPC
Perché i progetti POS non hanno la stabilità di POW e hanno un'elevata capitalizzazione di mercato? Perché il POS e queste monete aggiuntive sono tutti stampati dal nulla È tutto inutile e, quando verrà stampato, verrà sicuramente distrutto direttamente E pow ogni moneta viene dissotterrata con soldi veri e a rischio I minatori valuteranno le monete più di quanto spendono i loro soldi Può essere lo stesso? Quindi, sono ancora molto rialzista sulle monete PoW È difficile per me dire se arriverà la stagione dei cottage, se me lo chiedi Ma se Bitcoin continua a salire alle stelle, allora ci sarà inevitabilmente una grande ondata di prigionieri di guerra di alta qualità
有故事的NPC
有故事的NPC
Cosa resta di POW? Quali altre criptovalute sono basate su POW? I nuovi porri potrebbero non sapere ancora cosa sono POW e POS Penso che sia bello conoscerlo Bao Er Ye ha anche detto che POW è la luce bianca della luna nel suo cuore Scegli una moneta POW per comprarne un po' nel caso in cui diventi ricco? - POW è un meccanismo proof-of-work, il che significa che richiede impianti di mining per produrre monete e ci sono pochissimi token che utilizzano ancora POW POS è un meccanismo proof-of-stake, lo staking dei token equivale al mining, più token possiedi, maggiore è il rendimento, e ora il 99,99% delle monete è in questa modalità Alcune persone dicono che POW ha portato un sacco di spreco di energia e non è più adatto a questo mondo, al fine di migliorare la protezione e l'efficienza ambientale, POS è la tendenza generale Alcune persone dicono che POW è una moneta generata da schede grafiche e che il puro mining di CPU o macchine per il mining è un'ulteriore prova che l'intero popolo partecipa alla contabilità e l'intero popolo assiste. Se il fondatore se n'è andato; L'exchange ha cessato le negoziazioni; Queste monete avranno ancora un certo valore, perché sono state prodotte da tutto il popolo. Queste monete non hanno prezzo nel cuore di ogni minatore. - Personalmente, penso che il modello POW sia sostenuto da Satoshi Nakamoto Il modello blockchain tradizionale richiede un costo enorme e ci vogliono migliaia di minatori per mantenere un registro blockchain e richiede molte macchine per il mining e energia. Se un nuovo token adotterà questo modello, sarà difficile sopravvivere, per non parlare dell'alto costo delle macchine per il mining e dell'alto costo del project party, e sarà difficile anche per i porri generare consenso Pertanto, agli occhi del team del progetto, POW ha bisogno di un'enorme quantità di costi, una trama e una storia colorate e un gran numero di macchine minerarie Il POS impiega solo pochi minuti per creare un token e il resto viene fatto tramite sfarfallio Pertanto, il 99,99% dei progetti ora è in modalità POS Ma d'altra parte, lo 0,01% dei progetti sono POW Diamo un'occhiata a quali sono questi progetti 1. BTC Bitcoin è la prima criptovaluta al mondo e il valore più alto di una singola valuta ha già sfondato i dollari da 7 settimane, e una moneta e una villa potrebbero diventare realtà. Puoi acquistare solo una macchina per il mining integrata per il mining, che è molto costosa e consuma molta elettricità. 2. DOGE Dogecoin è il meme di maggior successo, e Bitcoin è lo stesso modello pow, e Litecoin viene estratto con la stessa macchina di mining, perché il 90% dei meme sono chiamati dog? Poiché Dogecoin è così famoso, anche il fondatore ha rinunciato, ma è stato direttamente portato via dall'uomo più ricco, e Dogecoin è equivalente a Bitcoin in meme 3. LTC Litecoin ha occupato il secondo posto nel valore di mercato per molti anni, e ora è caduto sull'altare, e il prezzo della valuta è sparito, e il valore di mercato è sceso dal secondo a più del 20°. Litecoin è anche Pow come Bit, e Dogecoin utilizza la stessa macchina per il mining per il mining, dopotutto è il secondo fratello, e il cane ha dovuto imitarlo quando lo ha visto. 4. ECC Nel 2016, Ethereum è stato rubato dopo l'hard fork La nuova catena è la famosa ETH e ETC è la catena originale prima del fork, il progetto sottolinea che ETC è il vero Ethereum, sento che la maggior parte di esso è dovuto ai soldi per promuoverlo, ETH è stato a lungo cambiato in POS e ETC insiste sull'utilizzo di POW, che è attualmente generato dal mining di schede grafiche, e il costo dell'elettricità è enorme. La prima volta a causa di un furto, ho biforcato ETC Il secondo aggiornamento del POS ha nuovamente biforcato ETHW Per quanto riguarda il motivo per cui vengono generate così tante monete biforcute Penso che sia a causa dei soldi e dei desideri delle persone, dopotutto, ETH ha così tanto successo che ci vorrà molto tempo per strofinarlo. 5. BCH Conosciuta come la moneta principe, Bitmain (commerciante di macchine per il mining) guidato dal grande lavoro, è prodotto dal fork di Bitcoin, è il più riuscito delle innumerevoli monete fork di Bitcoin, il momento più glorioso Il prezzo della valuta una volta ha sostituito Bitcoin per diventare un fratello, dando alle persone la sensazione che il principe stesse per salire al trono dopo una ribellione riuscita, ma ci sono ancora più persone con energia positiva nel circolo valutario, e sono fermamente ottimiste su BTC, quindi BCH non è riuscito a ribellarsi e il prezzo è crollato, scendendo da 4.000 a diverse centinaia. BCH sostiene il concetto di blocchi di grandi dimensioni, che può essere considerato come una versione migliorata di Bitcoin, che utilizza la stessa macchina di mining di Bitcoin. 6. BSV Questo è un fork di BCH, interessante, BTC ha biforcato BCH, e poi il team di BCH ha avuto lotte intestine, e poi ha biforcato BSV da BCH, e il suo fondatore Satoshi Omoto ha sempre affermato di essere il vero Satoshi Nakamoto, e ha detto che BSV è il vero Bitcoin. Tuttavia, finora non ha ricevuto abbastanza riconoscimenti. 7. XMR Monero è attualmente la moneta per la privacy più conosciuta, ma anche l'handle di mining della CPU, il fratello maggiore del mining della CPU, ma anche il preferito degli hacker, qualsiasi computer nel Trojan, purché si scriva un pezzo di codice per il mining gratuito degli hacker per sempre, perché finché c'è un computer CPU in grado di minare Monero, il più oltraggioso è che i record di trasferimento di Monero sono completamente privati, non riesce a trovare l'identità, è troppo amato dagli hacker, la valuta forte nel dark web, perché è troppo famoso per essere bandito da alcune agenzie governative, È stato delistato da una serie di noti exchange. C'è una piccola storia, una volta che Bitmain è uscito con una macchina di mining professionale, che può estrarre Monero con una grande potenza di calcolo, in passato, solo la CPU poteva estrarre Monero, dopo che questa macchina di mining è uscita, la CPU era fredda, e il team di Monero era arrabbiato, Lao Tzu CPU mining Scava bene Mi crei problemi, e direttamente hard forkato la nuova moneta, rendendo la macchina di mining Monero un rottame metallico Risultato: Per placare le tante persone che hanno acquistato i mining rig Bitmain ha creato un hard-fork di una moneta XMC (nota come Monroe Classic, ETC si chiama Ethereum Classic) per rendere queste persone che hanno acquistato impianti di mining un po' di sangue, e possono scavare le cose comunque, e poi se ne andranno. 8. TRATTINO DASH è una nota vecchia moneta mineraria simile a Monroe, ma viene estratta da una macchina mineraria professionale e ora è scesa piuttosto male. 9. ZEC Zcash è anche una moneta per la privacy Tutti i record delle transazioni possono essere visualizzati solo dai possessori di chiavi private, estratti da macchine di mining professionali e ora è sceso molto male. 10. KAS Dopo che ETH è stato trasferito su pos, KAS ha rapidamente occupato una parte della potenza di calcolo e ha iniziato a salire alle stelle, che è aumentato centinaia di volte, ed è stato prodotto dal mining di schede grafiche, e il mining iniziale è raddoppiato, e ora il valore di mercato è di 4 miliardi di dollari USA. - Capitalizzazione di mercato di Bitcoin (BTC): 1.250 miliardi di dollari Capitalizzazione di mercato di Dogecoin (DOGE): 15,7 miliardi di dollari Litecoin (LTC) ha una capitalizzazione di mercato di 5 miliardi di dollari Capitalizzazione di mercato di Ethereum Classic (ETC): 2,8 miliardi di dollari Capitalizzazione di mercato di Bitcoin Cash (BCH): 6,77 miliardi di dollari Capitalizzazione di mercato BSV: 968 milioni di dollari Capitalizzazione di mercato di Monero (XMR): 3,182 miliardi di dollari Capitalizzazione di mercato di Dash (DASH): 300 milioni di dollari Capitalizzazione di mercato di Zcash (ZEC): 450 milioni di dollari Capitalizzazione di mercato KAS: 4 miliardi di dollari - Autore: Un NPC con una storia Si prega di indicare la fonte ^_^ qui sotto
Mostra originale
55.088
5

Calcolatore BSV

USDUSD
BSVBSV

Prestazioni prezzo Bitcoin SV in USD

Il prezzo attuale di Bitcoin SV è $34,4400. Dalle 00:00 UTC, Bitcoin SV è diminuito di -2,96%. Al momento ha un'offerta circolante di 19.871.822 BSV e un'offerta massima di 21.000.000 BSV, assegnando una capitalizzazione di mercato completamente diluita di $682,00M. Al momento, la criptovaluta Bitcoin SV detiene la posizione 0 nei ranking di capitalizzazione di mercato. Il prezzo Bitcoin SV/USD è aggiornato in tempo reale.
Oggi
-$1,0500
-2,96%
7 giorni
-$4,8200
-12,28%
30 giorni
-$3,7100
-9,73%
3 mesi
-$0,39000
-1,12%

Informazioni su Bitcoin SV (BSV)

4.2/5
CyberScope
4.2
16/04/2025
Il rating fornito è un rating aggregato raccolto da OKX dalle fonti date e ha scopo puramente informativo. OKX non garantisce la qualità o la precisione dei rating. Non è destinato a fornire (i) consigli o raccomandazioni in materia di investimenti; (ii) un'offerta o una sollecitazione all'acquisto, alla vendita o al possesso di asset digitali; oppure (iii) consigli di natura finanziaria, contabile, legale o fiscale. Gli asset digitali, tra cui stablecoin e NFT, comportano un elevato livello di rischio, sono soggetti a fluttuazioni estreme e possono perdere tutto il loro valore. Il prezzo e le prestazioni degli asset digitali non sono garantiti e potrebbero variare senza preavviso. I tuoi asset digitali non sono coperti da garanzia contro potenziali perdite. I rendimenti storici non rappresentano un'indicazione di rendimenti futuri. OKX non garantisce alcun rimborso di capitale o interessi. OKX non garantisce il rimborso del capitale o dell'interesse. Valuta attentamente se fare trading o mantenere asset digitali è idoneo per te alla luce delle tue condizioni finanziarie. Consulta il tuo professionista legale/fiscale/di investimenti in caso di domande sulle tue circostanze specifiche.
Mostra di più
  • Sito web ufficiale
  • White paper
  • Block explorer
  • Informazioni sui siti Web di terze parti
    Informazioni sui siti Web di terze parti
    Utilizzando il sito Web di terze parti ("TPW"), accetti che qualsiasi utilizzo del TPW sarà soggetto e regolato dai termini del sito TPW. Salvo espressa indicazione scritta, OKX e le sue affiliate ("OKX") non sono in alcun modo associati al proprietario o all'operatore del TPW. Accetti che OKX non sia responsabile per eventuali perdite, danni e qualsiasi altra conseguenza derivante dall'utilizzo del TPW. Tieni presente che l'utilizzo di un TPW potrebbe comportare una perdita o una riduzione dei tuoi asset.

Bitcoin SV (BSV) è una valuta digitale nata nel 2018 da un hard fork della blockchain di Bitcoin Cash (BCH). Destinata a diventare la versione più scalabile ed efficiente del Bitcoin, presenta una maggiore dimensione dei blocchi e una velocità di transazione più elevata.

Cos’è Bitcoin SV?

Essendo un fork di Bitcoin Cash, la dimensione dei blocchi di Bitcoin SV è di 2 gigabyte, nettamente superiore alla dimensione dei blocchi di Bitcoin, che è invece di 1 megabyte. La maggiore capacità di elaborazione delle transazioni garantisce una maggiore scalabilità.

Il team di Bitcoin SV 

Il team dietro a Bitcoin SV è composto da sviluppatori, imprenditori e promotori che si dedicano a migliorare la scalabilità, l'efficienza e l'ecocompatibilità della criptovaluta BSV. Alla guida del progetto Bitcoin SV c'è Craig Wright, un informatico australiano.

Come funziona BSV?

  1. Le transazioni di BSV vengono elaborate solo sull'omonima blockchain, un ledger (libro mastro) decentralizzato gestito da un gruppo di miner.
  2. I miner della blockchain BSV sono ricompensati con i token BSV per la convalida delle transazioni. Mining è il termine utilizzato per descrivere il processo di verifica delle transazioni.
  3. La blockchain BSV è protetta da un meccanismo di consenso Proof of Work (PoW). Il sistema Proof of Work è progettato per assicurare che nella blockchain siano incluse soltanto transazioni legittime.
  4. I token BSV possono essere custoditi in sicurezza all'interno dei wallet, ossia appositi software con cui gli utenti possono inviare e ricevere criptovalute. 

L’utility token BSV

Il nome dell'utility token di Bitcoin SV è BSV. Il suo scopo è quello di essere una versione più scalabile ed efficiente di Bitcoin, con una maggiore dimensione dei blocchi e una maggiore velocità delle transazioni.

Tokenomics di BSV

Come il Bitcoin, il BSV ha un'offerta totale di 21 milioni di token. La ricompensa per ogni blocco è di 6,25 token BSV, il tempo del blocco è di 6 secondi mentre le commissioni di transazione sono generalmente molto basse.

Come mettere in stake i BSV?

Per mettere in stake dei BSV è necessario selezionare un servizio di staking. Gli utenti possono mettere in stake i loro BSV su OKX Earn, con un APY stimato dell'1% e scadenze flessibili. In questo modo puoi iniziare a ottenere ricompense con la possibilità di sbloccare i tuoi BSV in qualsiasi momento.

Distribuzione dei token BSV 

  • 18,4 milioni di token BSV sono stati distribuiti inizialmente agli holder di Bitcoin (BTC) che avevano mantenuto i propri BTC sulla blockchain di Bitcoin Cash prima dell'hard fork del 15 novembre 2018.
  • I token BSV sono generati tramite un processo noto come mining. La blockchain BSV ricompensa i miner con BSV per il loro impegno nella verifica delle transazioni.
  • Si possono ottenere BSV anche tramite lo staking, e cioè bloccando dei BSV e partecipando al meccanismo di consenso che salvaguarda la blockchain.

I piani di espansione di BSV

  • Bitcoin SV punta a incrementare l'adozione da parte di aziende e privati. Ciò implica una collaborazione con le aziende per promuovere la diffusione del BSV come modalità di pagamento, e con i privati per diffondere la conoscenza del BSV e delle opportunità che offre.
  • L'obiettivo è anche quello di espandere l'ecosistema BSV. Ciò comporta la creazione di nuove applicazioni e servizi che utilizzino il BSV e la collaborazione con altre aziende interessate a integrare il BSV nella loro offerta.
Mostra di più
Mostra di meno
Negozia criptovalute e derivati popolari con commissioni basse
Negozia criptovalute e derivati popolari con commissioni basse
Inizia

Domande frequenti relative al prezzo di Bitcoin SV

Che cos’è BSV, e perchè è così importante?

Bitcoin SV (BSV) è una criptovaluta nata nel novembre 2018 da un hard fork di Bitcoin Cash (BCH). Progettata per essere la versione più efficace e scalabile del Bitcoin, ha raggiunto l'obiettivo grazie alla maggiore dimensione dei blocchi, che rende possibile l'elaborazione di un maggior numero di transazioni sulla blockchain.

Quali sono i vantaggi e l’utilità di holdare BSV? 

Uno dei vantaggi principali della rete BSV è l'elevata scalabilità dovuta alle grandi dimensioni dei blocchi. Poiché i blocchi di grandi dimensioni possono accogliere più transazioni alla volta, la blockchain BSV è in grado di elaborare un elevato numero di transazioni al secondo. 

BSV ha anche un elevato throughput, che si traduce in commissioni di elaborazione delle transazioni veloci ed economiche. Bitcoin SV è quindi più efficiente della maggior parte delle blockchain.

Infine, la blockchain BSV è protetta da una rete di miner in competizione tra loro per risolvere complessi problemi matematici che ne garantiscono la sicurezza. Questa caratteristica aumenta la sicurezza e la rende altamente impermeabile a potenziali attacchi.

Dove posso acquistare BSV?

Acquista facilmente token BSV sulla piattaforma di criptovalute OKX. Le coppie di trading disponibili nel terminale di trading di spot di OKX includonoBSV/USDT,BSV/USDC, eBSV/BTC.

Puoi anche acquistare BSV con oltre 99 valute fiat selezionando "Acquisto expressOpzione ". Altri token di criptovaluta popolari, comeBitcoin (BTC),Ethereum (ETH),Tether (USDT), eUSD Coin (USDC), sono disponibili anche.

In alternativa, puoi eseguire lo swap delle criptovalute esistenti, tra cuiXRP (XRP),Cardano (ADA),Solana (SOL), eChainlink (LINK), per BSV senza commissioni e senza slippage di prezzoConverti di OKX.

Per visualizzare i prezzi di conversione stimati in tempo reale tra valute fiat, come USD, EUR, GBP e altri, in BSV, visita laCalcolatore convertitore di criptovalute OKX. L'exchange di criptovalute ad alta liquidità di OKX garantisce i prezzi migliori per i tuoi acquisti di criptovalute.

A quanto corrisponde 1 Bitcoin SV oggi?
Al momento, un Bitcoin SV vale $34,4400. Per risposte e informazioni approfondite sull'azione sui prezzi di Bitcoin SV, sei nel posto giusto. Esplora i grafici Bitcoin SV più recenti e fai trading in modo responsabile con OKX.
Che cosa sono le criptovalute?
Le criptovalute, ad esempio Bitcoin SV, sono asset digitali che operano su un ledger pubblico chiamato blockchain. Scopri di più su monete e token offerti su OKX e sui loro diversi attributi, inclusi prezzi e grafici in tempo reale.
Quando è stata inventata la criptovaluta?
A seguito della crisi finanziaria del 2008, l'interesse nei confronti della finanza decentralizzata è cresciuto. Bitcoin ha offerto una nuova soluzione imponendosi come asset digitale sicuro su una rete decentralizzata. Da allora, sono stati creati anche molti altri token come Bitcoin SV.
Il prezzo di Bitcoin SV aumenterà oggi?
Dai un'occhiata alla nostra pagina di previsione sul prezzo di Bitcoin SV per prevedere i prezzi futuri e determinare i tuoi target di prezzo.

Informativa ESG

Le normative ESG (Environmental, Social and Governance) per gli asset di criptovaluta hanno lo scopo di gestire il loro impatto ambientale (ad es., attività minerarie dispendiose in termini di energia), promuovere la trasparenza e garantire pratiche di governance etiche per allineare l'industria delle criptovalute ai più ampi obiettivi di sostenibilità e sociali. Queste normative incoraggiano la conformità agli standard che riducono i rischi e favoriscono la fiducia negli asset digitali.
Dettagli degli asset
Nome
OKcoin Europe LTD
Identificatore dell'entità legale pertinente
54930069NLWEIGLHXU42
Nome dell'asset di criptovaluta
Bitcoin SV
Meccanismo di consenso
Bitcoin SV operates on a Proof of Work (PoW) consensus mechanism using the SHA-256 hashing algorithm, which is computationally intensive and requires substantial computing power. Specialized hardware like ASICs (Application-Specific Integrated Circuits) is typically used for mining on the network. Core Components: Proof of Work with SHA-256 Mining Hardware: Mining is facilitated primarily through ASICs, ensuring the network remains secure and resistant to attacks. Scalability through Large Blocks Unlimited Block Size: Unlike Bitcoin (BTC), which has a fixed 1 MB block limit, Bitcoin SV has removed block size limits, allowing blocks to scale according to network demand and supporting high transaction throughput.
Meccanismi di incentivi e commissioni applicabili
Bitcoin SV’s incentive model relies on block rewards and transaction fees to encourage miner participation and support network security. Incentive Mechanisms: Block Rewards Halving Schedule: Miners earn BSV through block rewards, which are halved approximately every four years, aligning with Bitcoin’s inflation control mechanism. Transaction Fees User-Paid Fees: Users pay transaction fees in BSV, which are awarded to miners, providing an additional incentive for miners to prioritize transactions and maintain network security. Applicable Fees: Bitcoin SV’s fee structure primarily involves transaction fees paid by users to incentivize miners. Transaction Fees User-Paid Fees: Each transaction on the Bitcoin SV network incurs a fee paid in BSV. These fees are typically minimal, making Bitcoin SV suitable for high-volume transaction processing. Dynamic Fee Market: Transaction fees may vary based on network usage and demand, but the lack of a block size limit allows for more transactions per block, which helps keep fees low. Mining Rewards and Halving Block Rewards: In addition to transaction fees, miners earn block rewards, which are halved approximately every four years. This halving impacts the income miners receive from block production, making transaction fees increasingly important as the primary source of miner revenue over time.
Inizio del periodo di riferimento dell'informativa
2024-05-28
Fine del periodo di riferimento dell'informativa
2025-05-28
Report sull'energia
Utilizzo di energia
80619807.27692 (kWh/a)
Utilizzo di energia rinnovabile
24.134702976 (%)
Intensità energetica
0.00072 (kWh)
Metodologie e fonti di energia principali
To determine the proportion of renewable energy usage, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal energy cost wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Share of electricity generated by renewables – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/share-electricity-renewables
Metodologie e fonti di energia
For the calculation of energy consumptions, the so called “top-down” approach is being used, within which an economic calculation of the miners is assumed. Miners are persons or devices that actively participate in the proof-of-work consensus mechanism. The miners are considered to be the central factor for the energy consumption of the network. Hardware is pre-selected based on the consensus mechanism's hash algorithm: SHA-256. A current profitability threshold is determined on the basis of the revenue and cost structure for mining operations. Only Hardware above the profitability threshold is considered for the network. The energy consumption of the network can be determined by taking into account the distribution for the hardware, the efficiency levels for operating the hardware and on-chain information regarding the miners' revenue opportunities. If significant use of merge mining is known, this is taken into account. When calculating the energy consumption, we used - if available - the Functionally Fungible Group Digital Token Identifier (FFG DTI) to determine all implementations of the asset of question in scope and we update the mappings regulary, based on data of the Digital Token Identifier Foundation.
Report sulle emissioni
Emissioni DLT GHG Scope 1 - Controllato
0.00000 (tCO2e/a)
Emissioni DLT GHG Scope 2 - Acquistato
33215.04306 (tCO2e/a)
Intensità GHG
0.00030 (kgCO2e)
Metodologie e fonti GHG principali
To determine the GHG Emissions, the locations of the nodes are to be determined using public information sites, open-source crawlers and crawlers developed in-house. If no information is available on the geographic distribution of the nodes, reference networks are used which are comparable in terms of their incentivization structure and consensus mechanism. This geo-information is merged with public information from Our World in Data, see citation. The intensity is calculated as the marginal emission wrt. one more transaction. Ember (2025); Energy Institute - Statistical Review of World Energy (2024) – with major processing by Our World in Data. “Carbon intensity of electricity generation – Ember and Energy Institute” [dataset]. Ember, “Yearly Electricity Data Europe”; Ember, “Yearly Electricity Data”; Energy Institute, “Statistical Review of World Energy” [original data]. Retrieved from https://ourworldindata.org/grapher/carbon-intensity-electricity Licenced under CC BY 4.0

Calcolatore BSV

USDUSD
BSVBSV
Scopri il mondo cripto
Scopri il mondo cripto
L'exchange di criptovalute migliore, più veloce e più forte di qualunque altro.