Fluence は、集中型クラウドでは実現できない AI インフラストラクチャを構築しています。これは、独立性があり、透明性があり、誰にでも開かれた、オープンで低コストのエンタープライズ クラスのコンピューティング レイヤーです。
2025年も2024年の傾向が継続し、クラウドコンピューティングの大手各社はAIインフラの覇権をめぐる競争を加速させています。Microsoftはデータセンターの構築に800億ドル以上を投資する計画で、GoogleはAIスーパーコンピュータを立ち上げ、OracleはStargate AIクラスターの構築に250億ドルを投資し、AWSもネイティブAIサービスに重点を移しています。
同時に、プロ選手も急速に成長しています。CoreWeaveは今年3月のIPOで15億ドルを調達し、現在、評価額は700億ドルを超えています。
AIが重要なインフラとなるにつれ、コンピューティングパワーの獲得権は、この時代における最も重要な戦場の一つとなるでしょう。中央集権型の巨大企業は、独自のデータセンターを構築し、チップを垂直統合することでコンピューティングパワーを独占しています。一方、Fluenceは、分散型でオープンかつ中立的なAIコンピューティングプラットフォームという新たなビジョンを提唱しています。Fluenceはコンピューティングパワーを活用し、FLTをチェーン上の実世界資産(RWA)トークンとして活用することで、AIの急激な需要増加に対応します。
Fluence は、AI ネットワーク (Spheron、Aethir、IO.net) やストレージ ネットワーク (Filecoin、Arweave、Akave、IPFS) を含む複数の分散型インフラストラクチャ プロジェクトと連携し、中立的な「コンピューティング データ」基盤レイヤーの構築を共同で推進しています。
2025 年から 2026 年にかけて、Fluence のテクノロジー ロードマップは次の中核的な方向性に重点を置いています。
1. グローバルGPUコンピューティングネットワークの構築
Fluenceは、AIタスクに必要な高性能ハードウェアをサポートするグローバルGPUノードを導入し、推論、微調整、モデルサービス機能をネットワークに注入します。これにより、現在のCPUベースのコンピューティングプラットフォームが、真にAI指向のコンピューティングレイヤーへとアップグレードされます。このプラットフォームは、コンテナ化されたオペレーティング環境を統合し、タスクのセキュリティとポータビリティを確保します。
さらに、FluenceはGPUの機密コンピューティング機能も探求し、プライベートデータの安全な推論と実行を確保します。信頼できる実行環境(TEE)と暗号化メモリにより、分散型アーキテクチャにおいても機密性の高いビジネスデータを処理できるようになり、主権AIエージェントの実装を促進します。
重要な時点:
GPUノードアクセスプラン - 2025年第3四半期
GPUコンテナランタイム環境がリリース - 2025年第4四半期
GPU 機密コンピューティングの研究開発開始 - 2025 年第 4 四半期
機密推論ミッションパイロット実行 — 2026年第2四半期
2. マネージドAIモデルと統合推論インターフェース
Fluenceは、LLMなどの主流のオープンソースモデル、LangChainなどのオーケストレーションフレームワーク、エージェントシステム、MCPサーバーを網羅したワンクリックデプロイメントテンプレートを提供し、プラットフォームのAI機能スタックを拡張します。デプロイメントモデルはより便利になり、コミュニティ開発者が協力してエコシステムの活力を高めることをサポートします。
重要な時点:
モデル + オーケストレーション テンプレートのリリース — 2025 年第 4 四半期
推論エンドポイントとルーティングシステムの展開 — 2026年第2四半期
3. 検証可能なコミュニティ主導のSLAの実装
Fluenceは、分散型の信頼とサービス保証メカニズムを構築し、 Guardiansメカニズムを導入しています。Guardiansメカニズムの参加者(個人または機関)は、ネットワークのコンピューティング能力の可用性を検証し、オンチェーンテレメトリメカニズムを通じてサービス契約の履行を監督する責任を負い、FLT報酬を獲得します。
ガーディアンはハードウェア投資なしにインフラガバナンスに参加できるため、エンタープライズレベルのコンピューティングネットワークは誰もが参加できるパブリックプラットフォームへと変貌します。この仕組みは「Pointless Program」システムと連携し、コミュニティ行動を促進し、ガーディアンになるための資格要件を強化します。
重要な時点:
ガーディアンの最初のバッチは2025年第3四半期に発売される予定
Guardian の完全導入と SLA 契約の開始 - 2025 年第 4 四半期
4. AIコンピューティングパワーと構成可能なデータスタックの統合
AIの未来は、単なるコンピューティングパワーではなく、コンピューティングパワーとデータの統合にあります。Fluenceは分散型ストレージネットワーク(Filecoin、Arweave、Akave、IPFSなど)と深く統合されており、開発者は検証可能なデータセットにアクセスし、GPUノードと組み合わせてタスクを実行できます。
開発者は、分散データにアクセスするAIジョブを容易に定義し、GPU環境で実行し、完全なAIバックエンドを構築できるようになります。これらのタスクはすべてFLTによって調整されます。また、このプラットフォームは、ストレージスペースとオンチェーンデータの接続を容易にするSDKモジュールと構成可能なテンプレートも提供し、AIエージェント、LLMツール、科学研究アプリケーションの構築に適しています。
重要な時点:
分散ストレージバックアップが開始 - 2026年第1四半期
AIワークフローに統合されたデータセット — 2026年第3四半期
クラウド依存からの脱却からインテリジェントなコラボレーションへ
Fluenceは、GPUアクセス、検証可能な実行、データ構成可能性を中核とし、AI時代に向けた分散型、検閲耐性、オープン性、協調性を備えたコンピューティングパワー基盤を構築しています。これは、少数の超大規模クラウドベンダーによる独占ではなく、世界中の開発者とコンピューティングノードによって推進されます。
将来のAIインフラは、AI自体に求められる価値観、すなわちオープン性、コラボレーション、検証可能性、そして説明責任を反映するべきです。Fluenceはこれらの原則をプロトコルに組み込みます。
Fluenceへの参加方法:
GPUノードプロバイダーになるために応募する
Fluence Cloudless VM ベータ版にサインアップ
ポイントレスプログラムに参加してガーディアンステータスをアンロックしましょう