Bitget App
Trade smarter
Kup kryptoRynkiHandelFuturesEarnCentrumWięcej
Sieć Gonka posiada ponad 9000 jednostek obliczeniowych H100/H200 i innych z dużą pamięcią, obsługując już prawie 40 modeli sprzętu GPU.

Sieć Gonka posiada ponad 9000 jednostek obliczeniowych H100/H200 i innych z dużą pamięcią, obsługując już prawie 40 modeli sprzętu GPU.

Odaily星球日报Odaily星球日报2025/12/30 06:47
Pokaż oryginał

Według najnowszych danych z gonkascan.com, moc obliczeniowa całej sieci Gonka przekroczyła obecnie równowartość 12 000 kart H100, a jej całkowita skala zbliża się do poziomu tradycyjnych dużych centrów obliczeniowych AI. Ponad 9000 kart GPU o wysokiej pamięci, takich jak H100/H200, stanowi rosnący udział, dominując wagę efektywnej mocy obliczeniowej w całej sieci, co pozwala na stabilne obsługiwanie wysoko równoległych zadań inferencyjnych modeli o setkach miliardów parametrów. Szeroki udział kart graficznych średniej i wyższej klasy znacząco obniżył również próg wejścia dla węzłów – wystarczy spełnić minimalne wymagania dotyczące pamięci, aby móc uczestniczyć w działaniu MLNode.

Dane pokazują, że sieć Gonka obsługuje już prawie 40 modeli GPU, obejmując moc obliczeniową klasy data center, taką jak H200, H100, A100, a także profesjonalne i konsumenckie karty graficzne, takie jak RTX 6000 Ada, A6000, A40, RTX 4090. Tworzy to wielopoziomową, możliwą do łączenia globalną strukturę dostaw mocy obliczeniowej, odzwierciedlając wysoką kompatybilność i wykorzystanie zdecentralizowanej ścieżki mocy obliczeniowej Gonka, zapewniając bardziej otwartą i elastyczną infrastrukturę dla inferencji i treningu AI.

Jednocześnie, pięć głównych modeli inferencyjnych AI w sieci Gonka miało już ponad 3000 użytkowników dziennie, a zapotrzebowanie na inferencję utrzymuje się na wysokim poziomie. Modele reprezentowane przez Qwen3-235B-A22B-Instruct-FP8 są stale i często wywoływane w sieci Gonka, a ich wykorzystanie wyraźnie wyszło poza fazę testową, zbliżając się do wczesnych rzeczywistych obciążeń produkcyjnych głównych API AI.

Gonka dąży do efektywnej integracji globalnej mocy GPU w sposób zdecentralizowany, zapewniając infrastrukturę dla inferencji i treningu AI bez konieczności uzyskiwania zezwoleń. Projekt został zainicjowany przez amerykańskiego dewelopera AI Product Science Inc., a zespół założycielski tworzą rodzeństwo Libermans, byli główni menedżerowie produktu Snap Inc. Całkowita kwota finansowania przekroczyła 69 milionów dolarów, a wśród inwestorów znajdują się Coatue (inwestor OpenAI), Slow Ventures (inwestor Solana), Bitfury, K5, Insight, partnerzy Benchmark i inni.

0
0

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.

PoolX: Stakuj, aby zarabiać
Nawet ponad 10% APR. Zarabiaj więcej, stakując więcej.
Stakuj teraz!
© 2025 Bitget