La rete Gonka dispone di oltre 9000 unità di potenza di calcolo ad alta memoria come H100/H200, supportando quasi 40 modelli di hardware GPU.
Secondo gli ultimi dati di gonkascan.com riportati da Odaily, la potenza di calcolo totale della rete Gonka ha superato attualmente l'equivalente di 12.000 schede H100, raggiungendo una scala complessiva vicina a quella dei tradizionali grandi centri di calcolo AI. Oltre 9.000 GPU ad alta memoria come H100/H200 sono attive nella rete, con una quota in costante aumento, dominando il peso della potenza di calcolo effettiva e consentendo alla rete di supportare in modo stabile compiti di inferenza ad alta concorrenza per modelli con parametri nell'ordine delle decine di miliardi. L'ampia partecipazione di schede grafiche di fascia media e alta ha inoltre abbassato significativamente la soglia di accesso per i nodi: basta soddisfare il requisito minimo di memoria video per partecipare all'esecuzione di MLNode.
I dati mostrano che la rete Gonka supporta già quasi 40 modelli di GPU, coprendo potenza di calcolo di livello data center come H200, H100, A100, oltre a schede professionali e consumer come RTX 6000 Ada, A6000, A40, RTX 4090, formando una struttura di fornitura di potenza di calcolo multilivello e componibile a livello globale. Questo riflette l'elevata compatibilità e il tasso di utilizzo della via decentralizzata di Gonka, fornendo un'infrastruttura più aperta e flessibile per l'inferenza e l'addestramento AI.
Allo stesso tempo, i cinque principali modelli di inferenza AI della rete Gonka hanno superato i 3.000 utenti giornalieri, con una domanda di inferenza in costante crescita. Modelli come Qwen3-235B-A22B-Instruct-FP8 sono stati richiamati in modo stabile, continuo e ad alta frequenza nella rete Gonka, con un utilizzo che ha chiaramente superato la fase di test, avvicinandosi ai primi carichi di lavoro produttivi reali delle API AI mainstream.
Gonka si impegna a integrare in modo efficiente la potenza di calcolo GPU globale tramite un approccio decentralizzato, offrendo un'infrastruttura senza permessi per l'inferenza e l'addestramento AI. Il progetto è incubato dalla società americana di sviluppo AI Product Science Inc., fondata dai fratelli Libermans, ex responsabili dei prodotti core di Snap Inc. Il finanziamento totale supera i 69 milioni di dollari, con investitori tra cui Coatue (investitore di OpenAI), Slow Ventures (investitore di Solana), Bitfury, K5, Insight, e partner di Benchmark.
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
Zama ha lanciato la mainnet
Grayscale presenta alla SEC degli Stati Uniti il documento S-1 per il Bittensor Trust (TAO) ETF
Il marchio fintech Truth.Fi di DJT lancia cinque ETF, quotati oggi alla Borsa di New York
