BTC
ETH
HTX
SOL
BNB
ดูตลาด
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

AI's Cost Dilemma: How Infrastructure Economics Will Reshape the Next Phase of the Market

Gonka_ai
特邀专栏作者
@gonka_ai
2026-03-26 14:39
บทความนี้มีประมาณ 3985 คำ การอ่านทั้งหมดใช้เวลาประมาณ 6 นาที
Is the current economic model of AI infrastructure truly sustainable after scaling? How will the transformation of computing power allocation mechanisms reshape the entire market's value distribution?
สรุปโดย AI
ขยาย
  • Key Viewpoint: The current highly centralized and capital-intensive economic model of AI infrastructure may become unsustainable after scaling, especially for startups. This is driving the market to explore decentralized computing power networks as a structural alternative to reduce inference costs, enhance supply elasticity, and reshape value distribution.
  • Key Elements:
    1. Fragile AI Cost Structure: The training cost for cutting-edge models may approach $10 billion, while ongoing inference costs pose an even greater pressure for scaled applications, making AI more akin to capital-intensive infrastructure.
    2. High Market Concentration: AWS, Azure, and Google Cloud control approximately 66% of global cloud infrastructure. Leading AI companies secure GPUs at extremely low costs through strategic agreements, while small and medium-sized enterprises face premiums as high as 600%.
    3. Energy Challenges Emerge: Data centers account for 1-1.5% of global electricity consumption. The growth in AI demand will intensify geopolitical competition for energy supply, becoming a key constraint in computing power economics.
    4. Rise of Decentralized Networks: Taking the Gonka protocol as an example, by utilizing idle GPU resources, its inference service pricing can be over a thousand times lower than centralized providers, aiming to offer more cost-effective and elastic computing power.
    5. Value Distribution Faces Restructuring: The capabilities of open-source models are approaching those of closed-source models, making inference costs the core variable for scaling AI applications. The economic dynamics of infrastructure will determine the future competitive landscape.

แหล่งที่มา:International Business Times UK 

ผู้เขียนต้นฉบับ:Anastasia Matveeva 

เรียบเรียงและรวบรวมโดย:Gonka.ai

Artificial Intelligence , Humanoid Robot

AI กำลังขยายตัวอย่างรวดเร็วอย่างน่าตกใจ แต่ตรรกะทางเศรษฐกิจพื้นฐานนั้นเปราะบางกว่าที่เห็นภายนอกมาก เมื่อยักษ์ใหญ่ด้านคลาวด์สามรายควบคุมกำลังประมวลผลสองในสามของโลก เมื่อต้นทุนการฝึกอบรมพุ่งไปสู่ 1 พันล้านดอลลาร์ และเมื่อบิลการอนุมานทำให้สตาร์ทอัพไม่ทันตั้งตัว — ต้นทุนที่แท้จริงของการแข่งขันด้านอาวุธกำลังประมวลผลนี้ กำลังปรับเปลี่ยนการกระจายมูลค่าของอุตสาหกรรม AI ทั้งหมดอย่างเงียบๆ

บทความนี้ไม่ได้พูดถึงว่าใครจะสร้างโมเดลที่ล้ำสมัยที่สุด มันสำรวจปัญหาพื้นฐานที่มากขึ้น: โมเดลเศรษฐกิจของโครงสร้างพื้นฐาน AI ในปัจจุบัน จะยั่งยืนอย่างแท้จริงหลังจากขยายขนาดหรือไม่? การเปลี่ยนแปลงของกลไกการจัดสรรกำลังประมวลผล จะปรับเปลี่ยนการกระจายมูลค่าของตลาดทั้งหมดอย่างไร?

1. ต้นทุนอัจฉริยะเบื้องหลัง

การฝึกโมเดลภาษาขนาดใหญ่ล้ำสมัย ต้องใช้เงินหลายสิบล้านหรือหลายร้อยล้านดอลลาร์ Anthropic เคยเปิดเผยว่าต้นทุนการฝึก Claude 3.5 Sonnet คือ "หลายสิบล้านดอลลาร์" และ CEO Dario Amodei คาดการณ์ก่อนหน้านี้ว่าต้นทุนการฝึกโมเดลรุ่นต่อไปอาจเข้าใกล้ 1 พันล้านดอลลาร์ ตามรายงานสื่อในอุตสาหกรรม ต้นทุนการฝึก GPT-4 อาจเกิน100 ล้านดอลลาร์ แล้ว

อย่างไรก็ตาม ต้นทุนการฝึกเป็นเพียงยอดภูเขาน้ำแข็งเท่านั้น สิ่งที่กดดันอย่างต่อเนื่องในระดับโครงสร้างคือต้นทุนการอนุมาน — ซึ่งก็คือค่าใช้จ่ายที่เกิดขึ้นทุกครั้งที่โมเดลถูกเรียกใช้ ตามราคา API ที่ OpenAI เปิดเผย การอนุมานคิดค่าบริการตามล้านโทเค็น สำหรับแอปพลิเคชันที่มีปริมาณการใช้งานสูง นี่หมายความว่าต้นทุนการอนุมานรายวันอาจสูงถึงหลายพันดอลลาร์ แม้กระทั่งก่อนการขยายขนาด

AI มักถูกอธิบายว่าเป็นซอฟต์แวร์ แต่แก่นแท้ทางเศรษฐกิจของมัน กลับเหมือนโครงสร้างพื้นฐานที่ใช้เงินทุนเข้มข้นมากขึ้นเรื่อยๆ — ทั้งมีการลงทุนล่วงหน้าที่สูง และมีค่าใช้จ่ายในการดำเนินงานอย่างต่อเนื่อง

การเปลี่ยนแปลงของโครงสร้างทางเศรษฐกิจนี้ กำลังเปลี่ยนภูมิทัศน์การแข่งขันของอุตสาหกรรม AI ทั้งหมดอย่างเงียบๆ ผู้ที่สามารถจ่ายกำลังประมวลผลได้คือยักษ์ใหญ่ที่สร้างโครงสร้างพื้นฐานขนาดใหญ่แล้ว ส่วนสตาร์ทอัพที่พยายามอยู่รอดในช่องว่าง กำลังถูกบิลการอนุมานกัดกร่อนทีละน้อย

2. ความเข้มข้นของเงินทุนและการรวมศูนย์ของตลาด

ตามการวิเคราะห์ตลาดคลาวด์ปี 2026 ของ Holori ปัจจุบัน AWS มีส่วนแบ่งตลาดคลาวด์ทั่วโลกประมาณ 33% Microsoft Azure ประมาณ 22% และ Google Cloud ประมาณ 11% ทั้งสามบริษัทรวมกันควบคุมส่วนแบ่งโครงสร้างพื้นฐานคลาวด์ทั่วโลกประมาณสองในสาม และภาระงาน AI ส่วนใหญ่ของโลก กำลังทำงานบนโครงสร้างพื้นฐานของบริษัททั้งสามนี้

ความหมายในทางปฏิบัติของการรวมศูนย์นี้คือ: เมื่อ API ของ OpenAI ล่ม ผลิตภัณฑ์หลายพันรายการได้รับผลกระทบพร้อมกัน เมื่อผู้ให้บริการคลาวด์หลักรายใดรายหนึ่งประสบปัญหา บริการข้ามอุตสาหกรรมและข้ามภูมิภาคก็หยุดชะงักตามมา

การรวมศูนย์ไม่ได้ลดลง แต่การใช้จ่ายด้านโครงสร้างพื้นฐานกลับขยายตัวอย่างต่อเนื่อง ตัวอย่างเช่น Nvidia รายได้ธุรกิจศูนย์ข้อมูลต่อปีทะลุ80 พันล้านดอลลาร์ แสดงให้เห็นว่าความต้องการ GPU ประสิทธิภาพสูงยังคงแข็งแกร่ง

สิ่งที่ควรให้ความสนใจมากขึ้นคือความไม่เท่าเทียมเชิงโครงสร้างโดยนัย ตามเอกสาร SEC และรายงานตลาด ห้องปฏิบัติการชั้นนำเช่น OpenAI, Anthropic ฯลฯ ได้ล็อคทรัพยากร GPU ด้วยราคาใกล้ต้นทุนต่ำสุด 1.30–1.90 ดอลลาร์ต่อชั่วโมง ผ่านข้อตกลง "แลกหุ้นเป็นกำลังประมวลผล" มูลค่าหลายพันล้านดอลลาร์ ในขณะที่บริษัทขนาดกลางและขนาดย่อมที่ขาดความสัมพันธ์เชิงกลยุทธ์กับ Nvidia, Microsoft, Amazon ถูกบังคับให้ซื้อในราคาขายปลีกที่สูงกว่า 14 ดอลลาร์ต่อชั่วโมง — ส่วนต่างราคาสูงถึง 600%

ช่องว่างด้านราคานี้ ถูกขับเคลื่อนโดยการลงทุนเชิงกลยุทธ์รวม 40 พันล้านดอลลาร์ของ Nvidia ไปยังห้องปฏิบัติการชั้นนำเมื่อเร็วๆ นี้ การเข้าถึงโครงสร้างพื้นฐาน AI มากขึ้นเรื่อยๆ ถูกกำหนดโดยข้อตกลงการจัดซื้อที่ใช้เงินทุนเข้มข้น แทนที่จะเป็นการแข่งขันในตลาดเปิด

ในระยะการนำไปใช้ช่วงแรก การรวมศูนย์นี้อาจดู "มีประสิทธิภาพ" แต่หลังจากขยายขนาดแล้ว มันนำมาซึ่งความเสี่ยงด้านราคา อุปสรรคด้านอุปทาน และการพึ่งพาโครงสร้างพื้นฐาน — ความเปราะบางสามชั้นซ้อนทับกัน

3. มิติพลังงานที่ถูกละเลย

ปัญหาต้นทุนของโครงสร้างพื้นฐาน AI ยังมีอีกมิติหนึ่งที่มักถูกละเลย: พลังงาน

ตามข้อมูลของ International Energy Agency (IEA) ปัจจุบันศูนย์ข้อมูลใช้ไฟฟ้าประมาณ 1–1.5% ของการใช้ไฟฟ้าทั่วโลก และความต้องการที่ขับเคลื่อนโดย AI อาจเพิ่มสัดส่วนนี้อย่างมีนัยสำคัญในอีกไม่กี่ปีข้างหน้า

นี่หมายความว่าเศรษฐศาสตร์ของกำลังประมวลผลไม่ใช่แค่ปัญหาทางการเงิน แต่ยังเป็นความท้าทายด้านโครงสร้างพื้นฐานและพลังงานอีกด้วย เมื่อภาระงาน AI ขยายตัวอย่างต่อเนื่อง ความสำคัญทางภูมิรัฐศาสตร์ของอุปทานไฟฟ้าจะเด่นชัดมากขึ้นเรื่อยๆ — ประเทศใดที่สามารถจัดหากำลังประมวลผลที่เสถียรที่สุดด้วยต้นทุนพลังงานต่ำสุด จะได้เปรียบเชิงโครงสร้างในการแข่งขันทางอุตสาหกรรมในยุค AI

เมื่อ Jensen Huang ประกาศที่ GTC26 ว่า Nvidia มีวิสัยทัศน์คำสั่งซื้อทะลุ 1 ล้านล้านดอลลาร์ เขาไม่ได้อธิบายเพียงความสำเร็จทางธุรกิจของบริษัทเดียว แต่เป็นกระบวนการอันยิ่งใหญ่ของอารยธรรมที่กำลังเปลี่ยนไฟฟ้า ที่ดิน และแร่ธาตุหายากให้เป็นกำลังประมวลผลอัจฉริยะ

4. การทบทวนกลไกโครงสร้างพื้นฐานใหม่

ในขณะที่ศูนย์ข้อมูลรวมศูนย์ยังคงขยายตัว การสำรวจอีกประเภทหนึ่งกำลังเกิดขึ้นอย่างเงียบๆ — พยายามกำหนดวิธีการประสานงานทรัพยากรกำลังประมวลผลใหม่ตั้งแต่พื้นฐาน

การอนุมายแบบกระจายศูนย์: ทางเลือกเชิงโครงสร้าง

โปรโตคอลGonka เป็นการปฏิบัติที่เป็นตัวแทนในทิศทางนี้ นี่คือเครือข่ายแบบกระจายศูนย์ที่ออกแบบมาเฉพาะสำหรับการอนุมาน AI โดยมีเป้าหมายการออกแบบหลักคือ: บีบอัดค่าใช้จ่ายในการซิงโครไนซ์เครือข่ายและฉันทามติให้เหลือน้อยที่สุด และนำทรัพยากรการคำนวณไปสู่ภาระงาน AI จริงให้มากที่สุด

ในระดับการกำกับดูแล Gonka ใช้หลักการ "หนึ่งหน่วยกำลังประมวลผลหนึ่งเสียง" — น้ำหนักการกำกับดูแลถูกกำหนดโดยการมีส่วนร่วมกำลังประมวลผลที่สามารถตรวจสอบได้ ไม่ใช่สัดส่วนการถือหุ้น ในระดับเทคนิค โปรโตคอลใช้ช่วงการวัดประสิทธิภาพระยะสั้น (เรียกว่า Sprint) ซึ่งกำหนดให้ผู้เข้าร่วมต้องแสดงกำลังประมวลผล GPU จริงแบบเรียลไทม์ผ่านกลไกการพิสูจน์การทำงาน (PoW) ที่ใช้ Transformer

ความหมายของการออกแบบนี้คือ: กำลังประมวลผลเครือข่ายเกือบ 100% ถูกนำไปสู่ภาระงานการอนุมาน AI เอง แทนที่จะถูกใช้ไปกับค่าใช้จ่ายโครงสร้างพื้นฐาน เช่น การรักษาฉันทามติ การประสานงานการสื่อสาร เป็นต้น

ตรรกะทางเศรษฐกิจของกำลังประมวลผลแบบกระจาย

จากมุมมองทางเศรษฐศาสตร์ เครือข่ายกำลังประมวลผลแบบกระจายศูนย์มีข้อเสนอคุณค่าสามระดับ

ระดับแรกคือระดับต้นทุน โครงสร้างราคาของผู้ให้บริการคลาวด์แบบรวมศูนย์ โดยพื้นฐานแล้วรวมถึงค่าเสื่อมราคาสินทรัพย์ถาวรมหาศาล ต้นทุนการดำเนินงานศูนย์ข้อมูล และความคาดหวังผลกำไรของผู้ถือหุ้น เครือข่ายแบบกระจายศูนย์สามารถบีบอัดส่วนต้นทุนนี้ได้อย่างมีนัยสำคัญโดยการแปลงทรัพยากร GPU ที่ไม่ได้ใช้งานเป็นเงิน ตัวอย่างเช่น Gonka ปัจจุบันให้บริการอนุมานผ่านเกตเวย์คิดค่าบริการเป็น USD ที่ชื่อ GonkaGate ในราคาประมาณ 0.0009 ดอลลาร์ต่อล้านโทเค็น — ในขณะที่ผู้ให้บริการแบบรวมศูนย์ เช่น Together AI กำหนดราคาสำหรับโมเดลประเภทเดียวกัน (เช่น DeepSeek-R1) ที่ประมาณ 1.50 ดอลลาร์ ซึ่งต่างกันมากกว่าพันเท่า

ระดับที่สองคือระดับความยืดหยุ่นของอุปทาน อุปทานกำลังประมวลผลของผู้ให้บริการแบบรวมศูนย์มีความแข็งตัว วงจรการขยายขนาดคำนวณเป็นเดือนหรือไตรมาส ผู้เข้าร่วมเครือข่ายแบบกระจายศูนย์สามารถเข้าร่วมหรือออกได้อย่างยืดหยุ่นตามความผันผวนของความต้องการ ตามทฤษฎีแล้วสามารถตอบสนองต่อจุดสูงสุดของความต้องการได้เร็วกว่า — เช่นเดียวกับที่บริการคลาวด์ของ Amazon เกิดขึ้นเนื่องจากความต้องการจุดสูงสุดในช่วงวันหยุด การขึ้นลงของยอดการอนุมาน AI ก็ต้องการโครงสร้างพื้นฐานที่ยืดหยุ่นเพื่อรองรับเช่นกัน

ระดับที่สามคือระดับอำนาจอธิปไตย มิตินี้เด่นชัดเป็นพิเศษจากมุมมองของรัฐชาติ เมื่อบริการสาธารณะของรัฐบาลประเทศหนึ่งพึ่งพาผู้ให้บริการคลาวด์ภายนอกอย่างลึกซึ้ง การพึ่งพากำลังประมวลผลคือความเปราะบางเชิงกลยุทธ์ เครือข่ายแบบกระจายศูนย์ให้ความเป็นไปได้อย่างหนึ่ง: ศูนย์ข้อมูลในท้องถิ่นสามารถเชื่อมต่อเป็นโหนดกับเครือข่ายกระจายทั่วโลก ในขณะที่รับประกันอำนาจอธิปไตยของข้อมูล ก็ได้รับผลตอบแทนทางธุรกิจที่ยั่งยืนจากการจัดหากำลังประมวลผลให้กับตลาดโลก

5. ช่วงเวลาปรับโครงสร้างการกระจายมูลค่า

กลับไปที่ปัญหาหลักตอนต้นบทความ: โมเดลเศรษฐกิจของโครงสร้างพื้นฐาน AI ในปัจจุบัน จะยั่งยืนหลังจากขยายขนาดหรือไม่?

คำตอบคือ: สำหรับผู้เล่นชั้นนำ ยั่งยืน; สำหรับคนอื่นๆ ทั้งหมด ยั่งยืนน้อยลงเรื่อยๆ

AWS, Azure, Google Cloud สร้างคูเมืองผ่านการสะสมทุนหลายสิบปี ข้อได้เปรียบด้านขนาดของพวกเขาแทบจะสั่นคลอนไม่ได้ในระยะสั้น แต่ข้อได้เปรียบเชิงโครงสร้างนี้หมายความว่า: อำนาจในการกำหนดราคา การเข้าถึงข้อมูล และการพึ่งพาโครงสร้างพื้นฐาน ต่างรวมศูนย์อยู่ในมือขององค์กรเอกชนไม่กี่แห่ง

ในประวัติศาสตร์ การผูกขาดโครงสร้างพื้นฐานทางเทคโนโลยีที่สำคัญทุกครั้ง ในที่สุดก็ทำให้เกิดสถาปัตยกรรมแบบกระจายที่เป็นทางเลือก — อินเทอร์เน็ตเองคือการกบฏต่อการผูกขาดโทรคมนาคม BitTorrent คือการล้มล้างการกระจายเนื้อหาที่รวมศูนย์ บิตคอยน์คือการท้าทายการออกสกุลเงินที่รวมศูนย์

การกระจายศูนย์ของโครงสร้างพื้นฐาน AI อาจไม่ใช่ทางเลือกทางอุดมการณ์ แต่เป็นความจำเป็นทางเศรษฐกิจ — เมื่อต้นทุนของการรวมศูนย์สูงพอที่จะขับเคลื่อนการย้ายถิ่นฐานของผู้ใช้จำนวนมาก ความต้องการทางเลือกก็จะปะทุขึ้นจริง Jensen Huang เปรียบเทียบตรรก

ลงทุน
อุตสาหกรรม
AI