BTC
ETH
HTX
SOL
BNB
View Market
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

TetherがQVACクロスプラットフォームBitNet LoRAフレームワークをリリース:消費向けデバイスで数十億パラメータのAIモデルをトレーニング可能

2026-03-17 13:01

Odailyの公式発表によると、TetherはQVAC Fabric内のクロスプラットフォームBitNet LoRAファインチューニングフレームワークを発表し、Microsoft BitNet(1-bit LLM)のトレーニングと推論の最適化を実現した。このフレームワークは計算能力とメモリ要件を大幅に削減し、数十億パラメータレベルのモデルをノートパソコン、消費向けGPU、スマートフォンでトレーニングおよびファインチューニングできるようにする。

このソリューションは、BitNetモデルのモバイルGPU(Adreno、Mali、Apple Bionicを含む)でのファインチューニングを初めて実現した。テストでは、125Mパラメータモデルは約10分でファインチューニングが完了し、1Bモデルは約1時間で完了し、スマートフォンでは13Bパラメータモデルまで拡張可能であることが示された。

さらに、このフレームワークはIntel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、非NVIDIAデバイスでの1-bit LLM LoRAファインチューニングを初めて実現した。性能面では、BitNetモデルのモバイルGPU上での推論速度はCPUと比較して2倍から11倍向上し、同時にメモリ使用量は従来の16-bitモデルと比較して最大約77.8%削減された。

Tetherは、この技術が高性能計算能力とクラウドインフラへの依存を打破し、AIトレーニングの分散化とローカル化を推進し、連合学習などの新しいアプリケーションシナリオの基盤を提供する可能性があると述べている。