AI's Cost Dilemma: How Infrastructure Economics Will Reshape the Next Phase of the Market
- Key Viewpoint: The current highly centralized and capital-intensive economic model of AI infrastructure may become unsustainable after scaling, especially for startups. This is driving the market to explore decentralized computing power networks as a structural alternative to reduce inference costs, enhance supply elasticity, and reshape value distribution.
- Key Elements:
- Fragile AI Cost Structure: The training cost for cutting-edge models may approach $10 billion, while ongoing inference costs pose an even greater pressure for scaled applications, making AI more akin to capital-intensive infrastructure.
- High Market Concentration: AWS, Azure, and Google Cloud control approximately 66% of global cloud infrastructure. Leading AI companies secure GPUs at extremely low costs through strategic agreements, while small and medium-sized enterprises face premiums as high as 600%.
- Energy Challenges Emerge: Data centers account for 1-1.5% of global electricity consumption. The growth in AI demand will intensify geopolitical competition for energy supply, becoming a key constraint in computing power economics.
- Rise of Decentralized Networks: Taking the Gonka protocol as an example, by utilizing idle GPU resources, its inference service pricing can be over a thousand times lower than centralized providers, aiming to offer more cost-effective and elastic computing power.
- Value Distribution Faces Restructuring: The capabilities of open-source models are approaching those of closed-source models, making inference costs the core variable for scaling AI applications. The economic dynamics of infrastructure will determine the future competitive landscape.
แหล่งที่มา:International Business Times UK
ผู้เขียนต้นฉบับ:Anastasia Matveeva
เรียบเรียงและรวบรวมโดย:Gonka.ai

AI กำลังขยายตัวอย่างรวดเร็วอย่างน่าตกใจ แต่ตรรกะทางเศรษฐกิจพื้นฐานนั้นเปราะบางกว่าที่เห็นภายนอกมาก เมื่อยักษ์ใหญ่ด้านคลาวด์สามรายควบคุมกำลังประมวลผลสองในสามของโลก เมื่อต้นทุนการฝึกอบรมพุ่งไปสู่ 1 พันล้านดอลลาร์ และเมื่อบิลการอนุมานทำให้สตาร์ทอัพไม่ทันตั้งตัว — ต้นทุนที่แท้จริงของการแข่งขันด้านอาวุธกำลังประมวลผลนี้ กำลังปรับเปลี่ยนการกระจายมูลค่าของอุตสาหกรรม AI ทั้งหมดอย่างเงียบๆ
บทความนี้ไม่ได้พูดถึงว่าใครจะสร้างโมเดลที่ล้ำสมัยที่สุด มันสำรวจปัญหาพื้นฐานที่มากขึ้น: โมเดลเศรษฐกิจของโครงสร้างพื้นฐาน AI ในปัจจุบัน จะยั่งยืนอย่างแท้จริงหลังจากขยายขนาดหรือไม่? การเปลี่ยนแปลงของกลไกการจัดสรรกำลังประมวลผล จะปรับเปลี่ยนการกระจายมูลค่าของตลาดทั้งหมดอย่างไร?
1. ต้นทุนอัจฉริยะเบื้องหลัง
การฝึกโมเดลภาษาขนาดใหญ่ล้ำสมัย ต้องใช้เงินหลายสิบล้านหรือหลายร้อยล้านดอลลาร์ Anthropic เคยเปิดเผยว่าต้นทุนการฝึก Claude 3.5 Sonnet คือ "หลายสิบล้านดอลลาร์" และ CEO Dario Amodei คาดการณ์ก่อนหน้านี้ว่าต้นทุนการฝึกโมเดลรุ่นต่อไปอาจเข้าใกล้ 1 พันล้านดอลลาร์ ตามรายงานสื่อในอุตสาหกรรม ต้นทุนการฝึก GPT-4 อาจเกิน100 ล้านดอลลาร์ แล้ว
อย่างไรก็ตาม ต้นทุนการฝึกเป็นเพียงยอดภูเขาน้ำแข็งเท่านั้น สิ่งที่กดดันอย่างต่อเนื่องในระดับโครงสร้างคือต้นทุนการอนุมาน — ซึ่งก็คือค่าใช้จ่ายที่เกิดขึ้นทุกครั้งที่โมเดลถูกเรียกใช้ ตามราคา API ที่ OpenAI เปิดเผย การอนุมานคิดค่าบริการตามล้านโทเค็น สำหรับแอปพลิเคชันที่มีปริมาณการใช้งานสูง นี่หมายความว่าต้นทุนการอนุมานรายวันอาจสูงถึงหลายพันดอลลาร์ แม้กระทั่งก่อนการขยายขนาด
AI มักถูกอธิบายว่าเป็นซอฟต์แวร์ แต่แก่นแท้ทางเศรษฐกิจของมัน กลับเหมือนโครงสร้างพื้นฐานที่ใช้เงินทุนเข้มข้นมากขึ้นเรื่อยๆ — ทั้งมีการลงทุนล่วงหน้าที่สูง และมีค่าใช้จ่ายในการดำเนินงานอย่างต่อเนื่อง
การเปลี่ยนแปลงของโครงสร้างทางเศรษฐกิจนี้ กำลังเปลี่ยนภูมิทัศน์การแข่งขันของอุตสาหกรรม AI ทั้งหมดอย่างเงียบๆ ผู้ที่สามารถจ่ายกำลังประมวลผลได้คือยักษ์ใหญ่ที่สร้างโครงสร้างพื้นฐานขนาดใหญ่แล้ว ส่วนสตาร์ทอัพที่พยายามอยู่รอดในช่องว่าง กำลังถูกบิลการอนุมานกัดกร่อนทีละน้อย
2. ความเข้มข้นของเงินทุนและการรวมศูนย์ของตลาด
ตามการวิเคราะห์ตลาดคลาวด์ปี 2026 ของ Holori ปัจจุบัน AWS มีส่วนแบ่งตลาดคลาวด์ทั่วโลกประมาณ 33% Microsoft Azure ประมาณ 22% และ Google Cloud ประมาณ 11% ทั้งสามบริษัทรวมกันควบคุมส่วนแบ่งโครงสร้างพื้นฐานคลาวด์ทั่วโลกประมาณสองในสาม และภาระงาน AI ส่วนใหญ่ของโลก กำลังทำงานบนโครงสร้างพื้นฐานของบริษัททั้งสามนี้
ความหมายในทางปฏิบัติของการรวมศูนย์นี้คือ: เมื่อ API ของ OpenAI ล่ม ผลิตภัณฑ์หลายพันรายการได้รับผลกระทบพร้อมกัน เมื่อผู้ให้บริการคลาวด์หลักรายใดรายหนึ่งประสบปัญหา บริการข้ามอุตสาหกรรมและข้ามภูมิภาคก็หยุดชะงักตามมา
การรวมศูนย์ไม่ได้ลดลง แต่การใช้จ่ายด้านโครงสร้างพื้นฐานกลับขยายตัวอย่างต่อเนื่อง ตัวอย่างเช่น Nvidia รายได้ธุรกิจศูนย์ข้อมูลต่อปีทะลุ80 พันล้านดอลลาร์ แสดงให้เห็นว่าความต้องการ GPU ประสิทธิภาพสูงยังคงแข็งแกร่ง
สิ่งที่ควรให้ความสนใจมากขึ้นคือความไม่เท่าเทียมเชิงโครงสร้างโดยนัย ตามเอกสาร SEC และรายงานตลาด ห้องปฏิบัติการชั้นนำเช่น OpenAI, Anthropic ฯลฯ ได้ล็อคทรัพยากร GPU ด้วยราคาใกล้ต้นทุนต่ำสุด 1.30–1.90 ดอลลาร์ต่อชั่วโมง ผ่านข้อตกลง "แลกหุ้นเป็นกำลังประมวลผล" มูลค่าหลายพันล้านดอลลาร์ ในขณะที่บริษัทขนาดกลางและขนาดย่อมที่ขาดความสัมพันธ์เชิงกลยุทธ์กับ Nvidia, Microsoft, Amazon ถูกบังคับให้ซื้อในราคาขายปลีกที่สูงกว่า 14 ดอลลาร์ต่อชั่วโมง — ส่วนต่างราคาสูงถึง 600%
ช่องว่างด้านราคานี้ ถูกขับเคลื่อนโดยการลงทุนเชิงกลยุทธ์รวม 40 พันล้านดอลลาร์ของ Nvidia ไปยังห้องปฏิบัติการชั้นนำเมื่อเร็วๆ นี้ การเข้าถึงโครงสร้างพื้นฐาน AI มากขึ้นเรื่อยๆ ถูกกำหนดโดยข้อตกลงการจัดซื้อที่ใช้เงินทุนเข้มข้น แทนที่จะเป็นการแข่งขันในตลาดเปิด
ในระยะการนำไปใช้ช่วงแรก การรวมศูนย์นี้อาจดู "มีประสิทธิภาพ" แต่หลังจากขยายขนาดแล้ว มันนำมาซึ่งความเสี่ยงด้านราคา อุปสรรคด้านอุปทาน และการพึ่งพาโครงสร้างพื้นฐาน — ความเปราะบางสามชั้นซ้อนทับกัน
3. มิติพลังงานที่ถูกละเลย
ปัญหาต้นทุนของโครงสร้างพื้นฐาน AI ยังมีอีกมิติหนึ่งที่มักถูกละเลย: พลังงาน
ตามข้อมูลของ International Energy Agency (IEA) ปัจจุบันศูนย์ข้อมูลใช้ไฟฟ้าประมาณ 1–1.5% ของการใช้ไฟฟ้าทั่วโลก และความต้องการที่ขับเคลื่อนโดย AI อาจเพิ่มสัดส่วนนี้อย่างมีนัยสำคัญในอีกไม่กี่ปีข้างหน้า
นี่หมายความว่าเศรษฐศาสตร์ของกำลังประมวลผลไม่ใช่แค่ปัญหาทางการเงิน แต่ยังเป็นความท้าทายด้านโครงสร้างพื้นฐานและพลังงานอีกด้วย เมื่อภาระงาน AI ขยายตัวอย่างต่อเนื่อง ความสำคัญทางภูมิรัฐศาสตร์ของอุปทานไฟฟ้าจะเด่นชัดมากขึ้นเรื่อยๆ — ประเทศใดที่สามารถจัดหากำลังประมวลผลที่เสถียรที่สุดด้วยต้นทุนพลังงานต่ำสุด จะได้เปรียบเชิงโครงสร้างในการแข่งขันทางอุตสาหกรรมในยุค AI
เมื่อ Jensen Huang ประกาศที่ GTC26 ว่า Nvidia มีวิสัยทัศน์คำสั่งซื้อทะลุ 1 ล้านล้านดอลลาร์ เขาไม่ได้อธิบายเพียงความสำเร็จทางธุรกิจของบริษัทเดียว แต่เป็นกระบวนการอันยิ่งใหญ่ของอารยธรรมที่กำลังเปลี่ยนไฟฟ้า ที่ดิน และแร่ธาตุหายากให้เป็นกำลังประมวลผลอัจฉริยะ
4. การทบทวนกลไกโครงสร้างพื้นฐานใหม่
ในขณะที่ศูนย์ข้อมูลรวมศูนย์ยังคงขยายตัว การสำรวจอีกประเภทหนึ่งกำลังเกิดขึ้นอย่างเงียบๆ — พยายามกำหนดวิธีการประสานงานทรัพยากรกำลังประมวลผลใหม่ตั้งแต่พื้นฐาน
การอนุมายแบบกระจายศูนย์: ทางเลือกเชิงโครงสร้าง
โปรโตคอลGonka เป็นการปฏิบัติที่เป็นตัวแทนในทิศทางนี้ นี่คือเครือข่ายแบบกระจายศูนย์ที่ออกแบบมาเฉพาะสำหรับการอนุมาน AI โดยมีเป้าหมายการออกแบบหลักคือ: บีบอัดค่าใช้จ่ายในการซิงโครไนซ์เครือข่ายและฉันทามติให้เหลือน้อยที่สุด และนำทรัพยากรการคำนวณไปสู่ภาระงาน AI จริงให้มากที่สุด
ในระดับการกำกับดูแล Gonka ใช้หลักการ "หนึ่งหน่วยกำลังประมวลผลหนึ่งเสียง" — น้ำหนักการกำกับดูแลถูกกำหนดโดยการมีส่วนร่วมกำลังประมวลผลที่สามารถตรวจสอบได้ ไม่ใช่สัดส่วนการถือหุ้น ในระดับเทคนิค โปรโตคอลใช้ช่วงการวัดประสิทธิภาพระยะสั้น (เรียกว่า Sprint) ซึ่งกำหนดให้ผู้เข้าร่วมต้องแสดงกำลังประมวลผล GPU จริงแบบเรียลไทม์ผ่านกลไกการพิสูจน์การทำงาน (PoW) ที่ใช้ Transformer
ความหมายของการออกแบบนี้คือ: กำลังประมวลผลเครือข่ายเกือบ 100% ถูกนำไปสู่ภาระงานการอนุมาน AI เอง แทนที่จะถูกใช้ไปกับค่าใช้จ่ายโครงสร้างพื้นฐาน เช่น การรักษาฉันทามติ การประสานงานการสื่อสาร เป็นต้น
ตรรกะทางเศรษฐกิจของกำลังประมวลผลแบบกระจาย
จากมุมมองทางเศรษฐศาสตร์ เครือข่ายกำลังประมวลผลแบบกระจายศูนย์มีข้อเสนอคุณค่าสามระดับ
ระดับแรกคือระดับต้นทุน โครงสร้างราคาของผู้ให้บริการคลาวด์แบบรวมศูนย์ โดยพื้นฐานแล้วรวมถึงค่าเสื่อมราคาสินทรัพย์ถาวรมหาศาล ต้นทุนการดำเนินงานศูนย์ข้อมูล และความคาดหวังผลกำไรของผู้ถือหุ้น เครือข่ายแบบกระจายศูนย์สามารถบีบอัดส่วนต้นทุนนี้ได้อย่างมีนัยสำคัญโดยการแปลงทรัพยากร GPU ที่ไม่ได้ใช้งานเป็นเงิน ตัวอย่างเช่น Gonka ปัจจุบันให้บริการอนุมานผ่านเกตเวย์คิดค่าบริการเป็น USD ที่ชื่อ GonkaGate ในราคาประมาณ 0.0009 ดอลลาร์ต่อล้านโทเค็น — ในขณะที่ผู้ให้บริการแบบรวมศูนย์ เช่น Together AI กำหนดราคาสำหรับโมเดลประเภทเดียวกัน (เช่น DeepSeek-R1) ที่ประมาณ 1.50 ดอลลาร์ ซึ่งต่างกันมากกว่าพันเท่า
ระดับที่สองคือระดับความยืดหยุ่นของอุปทาน อุปทานกำลังประมวลผลของผู้ให้บริการแบบรวมศูนย์มีความแข็งตัว วงจรการขยายขนาดคำนวณเป็นเดือนหรือไตรมาส ผู้เข้าร่วมเครือข่ายแบบกระจายศูนย์สามารถเข้าร่วมหรือออกได้อย่างยืดหยุ่นตามความผันผวนของความต้องการ ตามทฤษฎีแล้วสามารถตอบสนองต่อจุดสูงสุดของความต้องการได้เร็วกว่า — เช่นเดียวกับที่บริการคลาวด์ของ Amazon เกิดขึ้นเนื่องจากความต้องการจุดสูงสุดในช่วงวันหยุด การขึ้นลงของยอดการอนุมาน AI ก็ต้องการโครงสร้างพื้นฐานที่ยืดหยุ่นเพื่อรองรับเช่นกัน
ระดับที่สามคือระดับอำนาจอธิปไตย มิตินี้เด่นชัดเป็นพิเศษจากมุมมองของรัฐชาติ เมื่อบริการสาธารณะของรัฐบาลประเทศหนึ่งพึ่งพาผู้ให้บริการคลาวด์ภายนอกอย่างลึกซึ้ง การพึ่งพากำลังประมวลผลคือความเปราะบางเชิงกลยุทธ์ เครือข่ายแบบกระจายศูนย์ให้ความเป็นไปได้อย่างหนึ่ง: ศูนย์ข้อมูลในท้องถิ่นสามารถเชื่อมต่อเป็นโหนดกับเครือข่ายกระจายทั่วโลก ในขณะที่รับประกันอำนาจอธิปไตยของข้อมูล ก็ได้รับผลตอบแทนทางธุรกิจที่ยั่งยืนจากการจัดหากำลังประมวลผลให้กับตลาดโลก
5. ช่วงเวลาปรับโครงสร้างการกระจายมูลค่า
กลับไปที่ปัญหาหลักตอนต้นบทความ: โมเดลเศรษฐกิจของโครงสร้างพื้นฐาน AI ในปัจจุบัน จะยั่งยืนหลังจากขยายขนาดหรือไม่?
คำตอบคือ: สำหรับผู้เล่นชั้นนำ ยั่งยืน; สำหรับคนอื่นๆ ทั้งหมด ยั่งยืนน้อยลงเรื่อยๆ
AWS, Azure, Google Cloud สร้างคูเมืองผ่านการสะสมทุนหลายสิบปี ข้อได้เปรียบด้านขนาดของพวกเขาแทบจะสั่นคลอนไม่ได้ในระยะสั้น แต่ข้อได้เปรียบเชิงโครงสร้างนี้หมายความว่า: อำนาจในการกำหนดราคา การเข้าถึงข้อมูล และการพึ่งพาโครงสร้างพื้นฐาน ต่างรวมศูนย์อยู่ในมือขององค์กรเอกชนไม่กี่แห่ง
ในประวัติศาสตร์ การผูกขาดโครงสร้างพื้นฐานทางเทคโนโลยีที่สำคัญทุกครั้ง ในที่สุดก็ทำให้เกิดสถาปัตยกรรมแบบกระจายที่เป็นทางเลือก — อินเทอร์เน็ตเองคือการกบฏต่อการผูกขาดโทรคมนาคม BitTorrent คือการล้มล้างการกระจายเนื้อหาที่รวมศูนย์ บิตคอยน์คือการท้าทายการออกสกุลเงินที่รวมศูนย์
การกระจายศูนย์ของโครงสร้างพื้นฐาน AI อาจไม่ใช่ทางเลือกทางอุดมการณ์ แต่เป็นความจำเป็นทางเศรษฐกิจ — เมื่อต้นทุนของการรวมศูนย์สูงพอที่จะขับเคลื่อนการย้ายถิ่นฐานของผู้ใช้จำนวนมาก ความต้องการทางเลือกก็จะปะทุขึ้นจริง Jensen Huang เปรียบเทียบตรรก


