AI的成本困局:基础设施经济学将如何重塑市场下一阶段
- Quan điểm cốt lõi: Mô hình kinh tế hiện tại của cơ sở hạ tầng AI, tập trung cao độ và thâm dụng vốn, có thể không bền vững sau khi mở rộng quy mô, đặc biệt là đối với các startup. Điều này đang thúc đẩy thị trường khám phá các mạng lưới sức mạnh tính toán phi tập trung như một giải pháp thay thế cấu trúc, nhằm giảm chi phí suy luận, tăng cường tính linh hoạt của nguồn cung và định hình lại sự phân phối giá trị.
- Yếu tố then chốt:
- Cấu trúc chi phí AI mong manh: Chi phí đào tạo mô hình tiên phong có thể lên tới gần 1 tỷ USD, trong khi chi phí suy luận liên tục tạo áp lực lớn hơn cho việc mở rộng quy mô ứng dụng, khiến AI giống cơ sở hạ tầng thâm dụng vốn hơn.
- Thị trường tập trung cao độ: AWS, Azure, Google Cloud kiểm soát khoảng 66% cơ sở hạ tầng đám mây toàn cầu. Các công ty AI hàng đầu có được GPU với chi phí cực thấp thông qua các thỏa thuận chiến lược, trong khi các doanh nghiệp vừa và nhỏ phải đối mặt với mức phí bảo hiểm cao tới 600%.
- Thách thức năng lượng nổi bật: Các trung tâm dữ liệu chiếm 1-1.5% lượng điện tiêu thụ toàn cầu. Sự tăng trưởng nhu cầu AI sẽ làm trầm trọng thêm cuộc cạnh tranh địa chính trị về nguồn cung năng lượng, trở thành yếu tố hạn chế then chốt trong kinh tế học sức mạnh tính toán.
- Mạng lưới phi tập trung nổi lên: Lấy giao thức Gonka làm ví dụ, bằng cách tận dụng tài nguyên GPU nhàn rỗi, giá dịch vụ suy luận của nó có thể thấp hơn hàng nghìn lần so với các nhà cung cấp dịch vụ tập trung, nhằm mục đích cung cấp sức mạnh tính toán với chi phí thấp hơn và linh hoạt hơn.
- Phân phối giá trị đối mặt với tái cấu trúc: Khả năng của mô hình mã nguồn mở tiệm cận mô hình mã nguồn đóng, khiến chi phí suy luận trở thành biến số cốt lõi cho việc mở rộng quy mô ứng dụng AI. Cuộc chơi kinh tế của cơ sở hạ tầng sẽ quyết định cục diện cạnh tranh trong tương lai.
Nguồn:International Business Times UK
Tác giả gốc:Anastasia Matveeva
Biên dịch & tổng hợp:Gonka.ai

AI đang mở rộng với tốc độ đáng kinh ngạc, nhưng logic kinh tế cơ bản của nó còn mong manh hơn nhiều so với vẻ ngoài. Khi ba gã khổng lồ về đám mây kiểm soát hai phần ba sức mạnh tính toán toàn cầu, khi chi phí đào tạo tiến tới 1 tỷ USD, khi hóa đơn suy luận khiến các công ty khởi nghiệp bất ngờ – cái giá thực sự của cuộc chạy đua vũ trang sức mạnh tính toán này đang âm thầm định hình lại sự phân phối giá trị của toàn bộ ngành công nghiệp AI.
Bài viết này không bàn về việc ai sẽ xây dựng mô hình tiên tiến nhất. Nó khám phá một vấn đề cơ bản hơn: Mô hình kinh tế hiện tại của cơ sở hạ tầng AI, sau khi mở rộng quy mô, liệu có thực sự bền vững? Sự thay đổi trong cơ chế phân phối sức mạnh tính toán sẽ định hình lại sự phân bổ giá trị của toàn bộ thị trường như thế nào?
1. Chi phí thông minh đằng sau hậu trường
Đào tạo một mô hình lớn tiên tiến thường cần hàng chục triệu, thậm chí hàng trăm triệu đô la. Anthropic từng công khai tuyên bố rằng chi phí đào tạo Claude 3.5 Sonnet là "hàng chục triệu đô la", và CEO Dario Amodei trước đó dự đoán rằng chi phí đào tạo cho thế hệ mô hình tiếp theo có thể tiến gần 1 tỷ USD. Theo truyền thông ngành, chi phí đào tạo GPT-4 có thể đã vượt quá 100 triệu USD.
Tuy nhiên, chi phí đào tạo chỉ là phần nổi của tảng băng chìm. Thứ thực sự gây áp lực liên tục ở cấp độ cấu trúc là chi phí suy luận – tức là chi phí phát sinh mỗi khi mô hình được gọi. Theo giá API công khai của OpenAI, suy luận được tính phí theo triệu Token. Đối với các ứng dụng có khối lượng sử dụng cao, điều này có nghĩa là ngay cả trước khi mở rộng quy mô, chi phí suy luận hàng ngày có thể đã lên tới hàng nghìn đô la.
AI thường được mô tả như một loại phần mềm. Nhưng bản chất kinh tế của nó ngày càng giống một cơ sở hạ tầng thâm dụng vốn – vừa có đầu tư trước lớn, vừa có chi phí hoạt động liên tục.
Sự thay đổi cấu trúc kinh tế này đang âm thầm thay đổi cục diện cạnh tranh của toàn bộ ngành công nghiệp AI. Những người có thể chi trả cho sức mạnh tính toán là những gã khổng lồ đã xây dựng được cơ sở hạ tầng quy mô lớn; còn những công ty khởi nghiệp cố gắng tồn tại trong kẽ hở đang bị hóa đơn suy luận bào mòn từng chút một.
2. Cường độ vốn và sự tập trung thị trường
Theo phân tích thị trường đám mây năm 2026 của Holori, AWS hiện chiếm khoảng 33% thị phần đám mây toàn cầu, Microsoft Azure khoảng 22% và Google Cloud khoảng 11%. Ba công ty này cùng nhau kiểm soát khoảng hai phần ba thị phần cơ sở hạ tầng đám mây toàn cầu, và phần lớn khối lượng công việc AI toàn cầu đang chạy trên cơ sở hạ tầng của ba công ty này.
Ý nghĩa thực tế của mức độ tập trung này là: Khi API của OpenAI gặp sự cố ngừng hoạt động, hàng nghìn sản phẩm đồng thời bị ảnh hưởng; khi một nhà cung cấp dịch vụ đám mây chính gặp sự cố, dịch vụ xuyên ngành, xuyên khu vực ngừng hoạt động theo.
Mức độ tập trung không thu hẹp, mà chi tiêu cho cơ sở hạ tầng tiếp tục mở rộng. Lấy NVIDIA làm ví dụ, doanh thu hàng năm hóa của hoạt động kinh doanh trung tâm dữ liệu của họ đã vượt qua 80 tỷ USD, cho thấy nhu cầu về GPU hiệu suất cao vẫn tiếp tục mạnh mẽ.
Đáng chú ý hơn là một sự bất bình đẳng cấu trúc ngầm định. Theo tài liệu SEC và báo cáo thị trường, các phòng thí nghiệm hàng đầu như OpenAI, Anthropic thông qua các thỏa thuận "quy đổi vốn cổ phần lấy sức mạnh tính toán" trị giá nhiều tỷ đô la, đã khóa chặt tài nguyên GPU với mức giá gần bằng chi phí thấp nhất là 1,30–1,90 USD mỗi giờ. Trong khi đó, các công ty vừa và nhỏ thiếu quan hệ đối tác chiến lược với NVIDIA, Microsoft, Amazon buộc phải mua với giá bán lẻ hơn 14 USD mỗi giờ – cao hơn tới 600%.
Khoảng cách định giá này chính được thúc đẩy bởi khoản đầu tư chiến lược tổng cộng 40 tỷ USD gần đây của NVIDIA vào các phòng thí nghiệm hàng đầu. Quyền tiếp cận cơ sở hạ tầng AI ngày càng được quyết định bởi các thỏa thuận mua sắm thâm dụng vốn, thay vì cạnh tranh thị trường mở.
Trong giai đoạn áp dụng sớm, sự tập trung này có thể trông "hiệu quả". Nhưng sau khi mở rộng quy mô, nó mang lại rủi ro định giá, nút cổ chai cung ứng và sự phụ thuộc vào cơ sở hạ tầng – ba điểm yếu chồng chất.
3. Khía cạnh năng lượng bị bỏ qua
Vấn đề chi phí của cơ sở hạ tầng AI còn có một khía cạnh thường bị bỏ qua: năng lượng.
Theo dữ liệu của Cơ quan Năng lượng Quốc tế (IEA), các trung tâm dữ liệu hiện chiếm khoảng 1–1,5% mức tiêu thụ điện toàn cầu, và sự tăng trưởng nhu cầu được thúc đẩy bởi AI có thể đẩy tỷ lệ này lên đáng kể trong vài năm tới.
Điều này có nghĩa là kinh tế học sức mạnh tính toán không chỉ là vấn đề tài chính, mà còn là thách thức về cơ sở hạ tầng và năng lượng. Khi khối lượng công việc AI tiếp tục mở rộng, ý nghĩa địa chính trị của nguồn cung điện sẽ ngày càng nổi bật – quốc gia nào có thể cung cấp sức mạnh tính toán ổn định nhất với chi phí năng lượng thấp nhất, sẽ chiếm lợi thế cấu trúc trong cạnh tranh công nghiệp thời đại AI.
Khi Jensen Huang tại GTC26 tuyên bố tầm nhìn đơn hàng của NVIDIA đã vượt 1 nghìn tỷ USD, ông không chỉ mô tả thành công thương mại của một công ty, mà là quá trình vĩ đại của toàn bộ nền văn minh đang chuyển đổi điện năng, đất đai và khoáng sản khan hiếm thành sức mạnh tính toán thông minh.
4. Suy nghĩ lại về cơ chế cơ sở hạ tầng
Trong khi các trung tâm dữ liệu tập trung tiếp tục mở rộng, một loại hình thám hiểm khác đang âm thầm nổi lên – cố gắng định nghĩa lại cơ bản cách thức phối hợp tài nguyên sức mạnh tính toán.
Suy luận phi tập trung: Một sự thay thế cấu trúc
Giao thức Gonka là một thực tiễn tiêu biểu theo hướng này. Đây là một mạng lưới phi tập trung được thiết kế riêng cho suy luận AI, mục tiêu thiết kế cốt lõi của nó là: nén chi phí đồng bộ hóa mạng và đồng thuận xuống mức thấp nhất, hướng càng nhiều tài nguyên tính toán càng tốt vào khối lượng công việc AI thực tế.
Ở cấp độ quản trị, Gonka áp dụng nguyên tắc "một đơn vị sức mạnh tính toán, một phiếu bầu" – trọng số quản trị được quyết định bởi đóng góp sức mạnh tính toán có thể xác minh, chứ không phải tỷ lệ nắm giữ vốn. Ở cấp độ kỹ thuật, giao thức sử dụng khoảng thời gian đo lường hiệu suất ngắn hạn (gọi là Sprint), yêu cầu người tham gia thể hiện sức mạnh tính toán GPU thực tế theo thời gian thực thông qua cơ chế bằng chứng công việc (PoW) dựa trên Transformer.
Ý nghĩa của thiết kế này là: Gần 100% sức mạnh tính toán của mạng lưới được hướng vào chính khối lượng công việc suy luận AI, thay vì tiêu hao vào các chi phí cơ sở hạ tầng như duy trì đồng thuận, phối hợp truyền thông.
Logic kinh tế của sức mạnh tính toán phân tán
Từ góc độ kinh tế học, đề xuất giá trị của mạng lưới sức mạnh tính toán phi tập trung có ba cấp độ.
Thứ nhất là lớp chi phí. Cấu trúc định giá của các nhà cung cấp dịch vụ đám mây tập trung, về bản chất, bao gồm khấu hao tài sản cố định khổng lồ, chi phí vận hành trung tâm dữ liệu và kỳ vọng lợi nhuận của cổ đông. Mạng lưới phi tập trung bằng cách biến các tài nguyên GPU nhàn rỗi thành tiền tệ, có thể nén đáng kể phần chi phí này. Lấy Gonka làm ví dụ, hiện tại dịch vụ suy luận được cung cấp thông qua cổng thanh toán bằng USD GonkaGate của nó, có giá khoảng 0,0009 USD mỗi triệu Token – trong khi các nhà cung cấp dịch vụ tập trung như Together AI định giá cho mô hình tương tự (như DeepSeek-R1) khoảng 1,50 USD, chênh l


