当計算力がインフラになる:AI分散化の道筋に関するさらなる考察
- 核心的な視点:本稿は、AI業界の競争の焦点がモデル能力から計算力の制御と配分へと移行しており、AI計算力問題は本質的にインフラストラクチャのプロトコル問題であると論じている。少数の中央集権的主体による計算力の独占を避けるためには、グローバルなリソースを調整するためのオープンで分散化されたプロトコル層が必要である。
- 重要な要素:
- AI発展の核心的なボトルネックは、モデル能力から計算力の入手可能性へと変化しており、計算力は構造的な権力へと進化しつつあり、その生産と調整は高度に集中している。
- ビットコインがグローバルな物理的リソースを調整する論理に倣い、AI計算力には、閉鎖的な商業的パッケージではなく、真の貢献と検証可能な作業をインセンティブ化できるオープンなプロトコル層が必要である。
- プロジェクトはAI推論から着手することを選択した。その理由は、ワークロードが連続的で測定可能であり、現在の生産環境における差し迫った計算力のボトルネックであり、分散化ネットワークの効率性を検証するのに適しているからである。
- 事前計算が不可能で、不正行為のコストが高いランダムな推論タスクを設計し、抜き打ち検査メカニズムと組み合わせることで、分散化ネットワークにおける計算貢献の真正性を確保する。
- プロジェクトの位置付けは、中央集権的な巨大企業に取って代わることではなく、それらがカバーしにくいオープンなインフラストラクチャ層を解決し、ハードウェア提供者と開発者が計算力をめぐって直接的に駆け引きできるようにすることである。
- 計算力はチップ、エネルギー、調整効率に制約されており、無限に供給される商品ではない。安定した、拡張可能な計算力の供給は、希少な構造的価値の源泉となるであろう。
これまでの記事で、私たちは繰り返し一つの判断を述べてきました:AI業界は構造的なシフトを経験している——競争の焦点はモデル能力から、コンピューティングパワーの制御と分配の方法へと移行している。
モデルは複製可能で、アルゴリズムは追いつくことができますが、コンピューティングパワーの生産、分配、制御の方法は急速に集中化し、誰が真に次の段階のAI競争に参加できるかを徐々に決定しつつあります。
これは感情的な判断ではなく、産業、技術、インフラストラクチャの進化を長期的に観察した結果です。
本記事では、この判断の上に、よく見落とされがちだが極めて重要な視点をさらに補足します:AIコンピューティングパワーの問題は、本質的にインフラストラクチャ・プロトコルの問題であり、単なる技術や製品の問題ではありません。
一、AIの真のボトルネックは、もはやモデル層にはない
今日のAI産業において、繰り返し見落とされている事実は、AIの発展を制限しているのはもはやモデル能力ではなく、コンピューティングパワーの入手可能性です。
現在の主流AIシステムの共通の特徴は、モデル、コンピューティングパワー、インターフェース、価格決定権が同じ一握りの中央集権的主体の手に高度に結合していることです。これは特定の企業や国の「選択」ではなく、資本集約型産業が開放的な調整メカニズムを欠いている場合の自然な結果です。
コンピューティングパワーが「クラウドサービス」としてパッケージ化されて販売されるとき、決定権は自然に以下の方向に集中します:
- チップ製造能力
- エネルギーとデータセンターの規模
- 資本構造と地政学的優位性
これにより、コンピューティングパワーは「資源」から構造的な権力へと徐々に進化しています。その結果、コンピューティングパワーは高価で価格の透明性が低く、地政学、エネルギー、輸出規制に制約され、開発者や中小チームにとって非常に使いにくいものになっています。
先進的なGPUの生産、展開、スケジューリングは少数のハードウェアメーカーと超大規模クラウドサービスプロバイダーに高度に集中しており、スタートアップだけでなく、地域や国のAI競争力全体にも影響を及ぼしつつあります。多くの開発者にとって、コンピューティングパワーは「技術資源」から「参入障壁」へと進化しました。問題は価格の高低だけでなく、長期的で予測可能な計算能力を獲得できるかどうか、単一の技術と供給体系にロックインされるかどうか、そして基盤となるコンピューティングパワー経済自体に参加できるかどうかです。
もしAIが汎用的な基盤能力になるのであれば、コンピューティングパワーの生産と分配のメカニズムは、長期的に高度に閉鎖された状態に留まるべきではありません。
二、ビットコインからAIへ:インフラストラクチャ・プロトコルの共通論理
私たちがビットコインに言及するのは、その価格や金融的属性について議論するためではなく、それが世界の物理的資源を真に調整することに成功した数少ないプロトコルシステムの一つだからです。
ビットコインが解決したのは、決して「記帳」問題だけではなく、以下の三つのより基盤的な問題です:
- どのようにして見知らぬ個人に現実世界の資源を持続的に投入するよう動機付けるか
- これらの資源が実際に投入され、仕事を生み出していることをどのように検証するか
- 中央の管理者なしに、システムの長期的な安定性をどのように維持するか
それは極めてシンプルだが回避困難な方法で、ハードウェアとエネルギーをプロトコル内で検証可能な「貢献」に変換します。
AIコンピューティングパワーは、かつてのエネルギーとコンピューティングパワーと非常に似た位置に向かっています。
ある能力が十分に基礎的で、十分に希少であるとき、それが最終的に必要とするのは、より精巧なビジネスパッケージではなく、資源を長期的に調整できるプロトコル層です。
Gonkaネットワークでは:
- 「仕事」は検証可能なAI計算そのものとして定義される
- インセンティブとガバナンス権は、資本やナラティブではなく、実際のコンピューティングパワー貢献から生まれる
- GPU資源は、抽象的なセキュリティ消費ではなく、意味のあるAI作業に可能な限り使用される
これは、コンピューティングパワーを「オープンなインフラストラクチャ」として再定義する試みです。
三、なぜAI推論から始めるのか、トレーニングではないのか?
私たちがAI推論(Inference)から始めることを選択したのは、トレーニングが重要ではないからではなく、推論が現実世界で最も差し迫ったコンピューティングパワーのボトルネックになっているからです。
AIが実験から本番環境へと移行するにつれて、継続的な推論のコスト、安定性、予測可能性は、開発者が真に気にかける問題になりつつあります。そしてまさにこの段階で、集中化されたクラウドサービスの限界が最も明らかになります。
ネットワーク設計の観点から、推論にはいくつかの重要な特徴があります:
- ワークロードが連続的で測定可能
- 分散化環境での効率最適化により適している
- コンピューティングパワーの検証とインセンティブメカニズムが成立するかを実際に検証できる
トレーニングはもちろん重要であり、将来的にトレーニング能力を導入する計画もあり、ネットワーク収入の一部は長期的なトレーニングニーズのサポートに既に充てられています。しかし、インフラストラクチャはまず実際のニーズの中で機能しなければなりません。
五、分散型コンピューティングパワーは、どのように「偽の計算」を回避するのか?
よくある疑問は、分散化環境において、ノードが実際にAI計算を行っていること、結果を偽造していないことをどのように保証するか、です。
私たちの答えは、検証ロジックを計算自体に組み込み、影響力を持続的で真実の計算貢献から生じさせることです。
ネットワークは、短周期の計算フェーズ(Sprint)を通じて、ノードにランダムに初期化された大規模なTransformerモデル上で推論タスクを実行することを要求します。これらのタスクは:
- 事前計算できない
- 過去の結果を再利用できない
- 偽造コストよりもコストが高い
ネットワークはすべての計算に対して完全な再確認を行うのではなく、継続的な抜き打ち検査と動的な検証強度の向上を通じて、偽造を経済的に成立しないようにします。長期間安定して正しい結果を提出するノードは、自然に高い参加度と影響力を獲得します。
六、中央集権的な巨大企業と競争するのか、それとも異なる階層で問題を解決するのか?
私たちは、OpenAI、Google、Microsoftを「置き換え」ようとしているわけではありません。
大規模テクノロジー企業が閉鎖的なシステム内で効率的なAIスタックを構築することは、彼らの強みです。しかし、このモデルは必然的に以下をもたらします:
- アクセスの制限
- 価格設定の不透明性
- 能力の少数主体への集中
私たちが注目しているのは、これらのシステムがカバーしにくい階層です:オープンで、検証可能で、インフラストラクチャレベルのコンピューティングパワー調整です。
それはサービスではなく、ハードウェアプロバイダーと開発者がコンピューティングパワーの効率性と真正性を直接めぐって駆け引きを行う市場とプロトコルです。
七、コンピューティングパワーは「商品化」されるのか?価値はどこに流れるのか?
多くの人は、推論コストが低下するにつれて、価値は最終的にモデル層に集中すると考えています。しかし、この判断はしばしば一つの前提を見落としています:
コンピューティングパワーは無限に供給される商品ではありません。
コンピューティングパワーは以下のものに制約されます:
- チップ製造能力
- エネルギーと地理的分布
- インフラストラクチャ調整の効率性
推論需要が世界的に持続的に成長するとき、真に希少なのは、安定した、予測可能な、拡張可能なコンピューティングパワー供給です。そして、これらの資源を調整できる者が、構造的価値を掌握します。
私たちが試みているのは、モデルを所有することではなく、より多くの参加者が「有料ユーザー」としてしか存在できずに、コンピューティングパワー経済自体に直接参加できるようにすることです。
八、なぜ分散型コンピューティングパワーは長期的な命題なのか?
私たちの判断は理論からではなく、中央集権環境でAIシステムを構築した現実の経験から来ています。
AIが中核能力になると、コンピューティングパワーの意思決定はもはや技術問題ではなく、戦略問題になることが多いです。この集中は、ビジネスレベルから、地政学と主権レベルへと拡大しつつあります。
もしAIが新しいインフラストラクチャであるならば、コンピューティングパワーの調整方法が、将来のイノベーションの開放性を決定します。
歴史上、真に生産性を解放した技術の波は、最終的には常にオープンなインフラストラクチャ層を必要としました。AIも例外ではありません。
結語:二つの未来の道筋
私たちは、以下の二つの可能な未来のいずれかに向かっています:
- コンピューティングパワーが少数の企業と国家によって持続的に集中され、AIが閉鎖的な能力になる
- あるいは、オープンプロトコルを通じて世界のコンピューティングパワーを調整し、価値を真の貢献者に流す
Gonka は自らが答えであると主張しませんが、私たちがどちら側に立っているかは明確です。
もしAIが世界を深く変えるのであれば、それを支えるコンピューティングパワーインフラストラクチャも、再設計される価値があります。
について Gonka.ai
Gonkaは、効率的なAIコンピューティングパワーを提供することを目的とした分散型ネットワークであり、その設計目標は世界のGPUコンピューティングパワーを最大限に活用して、意味のあるAIワークロードを完了することです。中央集権的なゲートキーパーを排除することで、Gonkaは開発者と研究者に許可不要のコンピューティングパワーリソースへのアクセスを提供し、同時にそのネイティブトークンGNKですべての参加者に報酬を与えます。
Gonkaは、米国のAI開発企業Product Science Inc.によってインキュベートされました。同社は、Web 2業界のベテランであり、Snap Inc.の元コアプロダクトディレクターであるLibermans兄妹によって設立され、2023年に1800万ドルの資金調達に成功し、2025年にさらに5100万ドルの追加資金調達を行いました。投資家には、OpenAIの投資家であるCoatue Management、Solanaの投資家であるSlow Ventures、Bitfury、K 5、Insight and Benchmarkのパートナーなどが含まれます。プロジェクトの初期貢献者には、6 blocks、Hard Yaka、GcoreなどのWeb 2-Web 3分野の著名なリーディングカンパニーが含まれます。
公式サイト | Github | X | Discord | Telegram | ホワイトペーパー | エコノミックモデル | ユーザーマニュアル



