Gonka ネットワークは、H100/H200 モデルを含む、高いメモリとコンピューティング能力を備えた 9000 台以上の GPU をサポートしており、すでに 40 台近くの GPU ハードウェア モデルをサポートしています。
Odaily Planet Dailyが報じたgonkascan.comの最新データによると、GonkaのネットワークコンピューティングパワーはH100相当のGPU1万2000基を超え、従来の大規模AIコンピューティングセンターの水準に近づいています。9000基以上の大容量メモリ搭載GPU(H100/H200など)が利用されており、その割合は増加し続けており、ネットワークの実効コンピューティングパワーの大部分を占めています。これにより、数十億パラメータのモデルに対する高並列推論タスクを安定的にサポートすることが可能になっています。ミッドエンドからハイエンドのGPUの普及により、ノードの参入障壁も大幅に低下し、最低限のメモリ要件を満たしていれば、MLNodeの運用に参加できるようになりました。
データによると、Gonkaネットワークは約40種類のGPUモデルをサポートしており、H200、H100、A100などのデータセンターレベルのコンピューティングパワーから、RTX 6000 Ada、A6000、A40、RTX 4090などのプロフェッショナル向けおよびコンシューマーグレードのグラフィックカードまでをカバーしています。これにより、マルチレベルの構成可能なグローバルコンピューティングパワー供給構造が形成され、Gonkaの互換性と効率性に優れた分散型コンピューティングパワーパスが実証され、AI推論とトレーニングのためのよりオープンで柔軟なインフラストラクチャサポートが提供されます。
一方、Gonkaネットワーク上の主要5つのAI推論モデルの1日あたりのユーザー数は3,000人を超え、推論需要は引き続き高い伸びを示しています。Qwen3-235B-A22B-Instruct-FP8に代表されるモデルは、Gonkaネットワーク上で安定した高頻度の利用パターンを形成しており、その利用パターンは明らかにテスト段階を脱し、主流AI APIの初期の実運用ワークロードに近づいています。
Gonkaは、グローバルなGPUコンピューティングパワーを分散型で効率的に統合し、AI推論とトレーニングのためのパーミッションレスなインフラストラクチャを提供することを目指しています。米国のAI開発会社Product Science Inc.によってインキュベートされたこのプロジェクトは、Snap Inc.の元コアプロダクトリーダーであるLibermans兄弟で構成されています。このプロジェクトは、Coatue(OpenAIの投資家)、Slow Ventures(Solanaの投資家)、Bitfury、K5、Insight、そしてBenchmarkのパートナーを含む投資家から、総額6,900万ドル以上の資金を調達しています。
