Ang Gonka Network ay may higit sa 9,000 na H100/H200 at iba pang high-memory GPU computing power, at kasalukuyang sumusuporta sa halos 40 na uri ng GPU hardware models.
Ayon sa Odaily, batay sa pinakabagong datos mula sa gonkascan.com, ang kabuuang network computing power ng Gonka ay lumampas na sa 12,000 H100 equivalents, na halos kapantay ng laki ng mga tradisyonal na malalaking AI computing centers. Mahigit 9,000 H100/H200 at iba pang high-memory GPUs ang ginagamit, na patuloy na tumataas ang proporsyon, at nangingibabaw sa kabuuang epektibong computing power ng network, na nagpapahintulot sa network na matatag na magdala ng mataas na concurrency inference tasks para sa mga modelong may daang bilyong parameters. Ang malawak na partisipasyon ng mga mid-to-high-end graphics cards ay malaki ring nakababa sa threshold ng pagpasok ng nodes—basta’t natutugunan ang minimum na memory requirement, maaaring sumali sa pagpapatakbo ng MLNode.
Ipinapakita ng datos na sinusuportahan na ng Gonka network ang halos 40 uri ng GPU models, kabilang ang H200, H100, A100 na mga data center-level computing power, pati na rin ang RTX 6000 Ada, A6000, A40, RTX 4090 at iba pang propesyonal at consumer-grade graphics cards. Nabuo nito ang isang multi-level at kombinable na global computing power supply structure, na nagpapakita ng mataas na compatibility at utilization ng Gonka sa decentralized computing power path, at nagbibigay ng mas bukas at flexible na infrastructure support para sa AI inference at training.
Kasabay nito, ang limang pangunahing AI inference models ng Gonka network ay may mahigit 3,000 daily users, at patuloy na tumataas ang demand para sa inference. Ang mga modelong tulad ng Qwen3-235B-A22B-Instruct-FP8 ay patuloy at madalas na ginagamit sa Gonka network, at ang paraan ng paggamit ay halatang lumampas na sa testing phase, halos umaabot na sa aktwal na production load ng mainstream AI APIs sa kanilang early stage.
Naglalayon ang Gonka na mahusay na pagsamahin ang global GPU computing power sa pamamagitan ng decentralized na paraan, upang magbigay ng permissionless na infrastructure para sa AI inference at training. Ang proyekto ay incubated ng American AI developer na Product Science Inc., na itinatag ng magkapatid na Libermans, dating core product heads ng Snap Inc. Ang kabuuang pondo ay lumampas sa 69 milyong US dollars, at kabilang sa mga investors ang Coatue (OpenAI investor), Slow Ventures (Solana investor), Bitfury, K5, Insight, at mga partner ng Benchmark.
Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.
Baka magustuhan mo rin
Zama ay inilunsad na ang mainnet
Grayscale nagsumite ng Bittensor Trust (TAO) ETF S-1 na dokumento sa US SEC
