BTC
ETH
HTX
SOL
BNB
ดูตลาด
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

เมื่อพลังการคำนวณกลายเป็นโครงสร้างพื้นฐาน: การคิดเพิ่มเติมเกี่ยวกับเส้นทางการกระจายอำนาจของ AI

Gonka_ai
特邀专栏作者
@gonka_ai
2026-01-26 09:17
บทความนี้มีประมาณ 2966 คำ การอ่านทั้งหมดใช้เวลาประมาณ 5 นาที
ปัญหาพลังการคำนวณ AI โดยพื้นฐานแล้วเป็นปัญหาของโปรโตคอลโครงสร้างพื้นฐาน ไม่ใช่แค่ปัญหาทางเทคนิคหรือผลิตภัณฑ์
สรุปโดย AI
ขยาย
  • มุมมองหลัก: บทความเชื่อว่าจุดสนใจของการแข่งขันในอุตสาหกรรม AI กำลังเปลี่ยนจากความสามารถของโมเดลไปสู่การควบคุมและการจัดสรรพลังการคำนวณ และปัญหาพลังการคำนวณ AI โดยพื้นฐานแล้วเป็นปัญหาของโปรโตคอลโครงสร้างพื้นฐาน ซึ่งต้องการเลเยอร์โปรโตคอลที่เปิดกว้างและกระจายอำนาจเพื่อประสานทรัพยากรทั่วโลก เพื่อหลีกเลี่ยงการผูกขาดพลังการคำนวณโดยหน่วยงานรวมศูนย์เพียงไม่กี่แห่ง
  • องค์ประกอบสำคัญ:
    1. คอขวดหลักของการพัฒนา AI ได้เปลี่ยนจากความสามารถของโมเดลไปสู่ความพร้อมใช้งานของพลังการคำนวณ พลังการคำนวณกำลังพัฒนาไปสู่อำนาจเชิงโครงสร้าง โดยการผลิตและการจัดสรรมีความเข้มข้นสูง
    2. เรียนรู้จากตรรกะของ Bitcoin ในการประสานทรัพยากรทางกายภาพทั่วโลก พลังการคำนวณ AI ต้องการเลเยอร์โปรโตคอลที่เปิดกว้างซึ่งสามารถจูงใจการมีส่วนร่วมจริงและงานที่สามารถตรวจสอบได้ แทนที่จะเป็นการบรรจุหีบห่อเชิงพาณิชย์แบบปิด
    3. โครงการเลือกเริ่มจาก AI inference เนื่องจากโหลดงานมีความต่อเนื่องและสามารถวัดได้ ซึ่งเป็นคอขวดด้านพลังการคำนวณที่เร่งด่วนในสภาพแวดล้อมการผลิตปัจจุบัน เหมาะสำหรับการทดสอบประสิทธิภาพของเครือข่ายกระจายอำนาจ
    4. ผ่านการออกแบบงาน inference แบบสุ่มที่ไม่สามารถคำนวณล่วงหน้าได้ โดยมีต้นทุนสูงกว่าการปลอมแปลง และผสมผสานกับกลไกการสุ่มตรวจสอบ เพื่อรับประกันความถูกต้องของการมีส่วนร่วมในการคำนวณในเครือข่ายกระจายอำนาจ
    5. ตำแหน่งของโครงการไม่ใช่เพื่อแทนที่ยักษ์ใหญ่แบบรวมศูนย์ แต่เพื่อแก้ไขเลเยอร์โครงสร้างพื้นฐานแบบเปิดที่พวกเขาครอบคลุมได้ยาก ทำให้ผู้ให้บริการฮาร์ดแวร์และนักพัฒนาสามารถต่อสู้กันโดยตรงรอบๆ พลังการคำนวณ
    6. พลังการคำนวณถูกจำกัดโดยชิป พลังงาน และประสิทธิภาพการประสานงาน ไม่ใช่สินค้าที่มีอุปทานไม่จำกัด การจัดหาพลังการคำนวณที่เสถียรและขยายได้จะกลายเป็นแหล่งคุณค่าที่หายากเชิงโครงสร้าง

Gonka เปิดตัว: เน็ตเวิร์กแบบกระจายศูนย์กำหนดการคำนวณ AI | Metaverse Post

ในบทความก่อนหน้านี้หลายบทความ เราได้กล่าวถึงข้อสรุปหนึ่งซ้ำแล้วซ้ำเล่า: อุตสาหกรรม AI กำลังอยู่ในช่วงการเปลี่ยนแปลงเชิงโครงสร้าง โดยจุดสนใจของการแข่งขันกำลังเปลี่ยนจากความสามารถของโมเดล ไปสู่วิธีการควบคุมและการจัดสรรพลังการประมวลผล

โมเดลสามารถถูกสร้างซ้ำได้ อัลกอริทึมสามารถถูกไล่ตามทันได้ แต่วิธีการผลิต การจัดสรร และการควบคุมพลังการประมวลผลกำลังรวมศูนย์อย่างรวดเร็ว และค่อยๆ กำหนดว่าใครจะสามารถมีส่วนร่วมในการแข่งขัน AI ในขั้นตอนต่อไปได้อย่างแท้จริง

นี่ไม่ใช่ข้อสรุปจากอารมณ์ แต่เป็นผลลัพธ์จากการสังเกตการณ์การพัฒนาของอุตสาหกรรม เทคโนโลยี และโครงสร้างพื้นฐานอย่างต่อเนื่อง

ในบทความนี้ เราจะเพิ่มเติมมุมมองหนึ่งที่มักถูกละเลย แต่มีความสำคัญอย่างยิ่งบนพื้นฐานของข้อสรุปนั้น: ปัญหาพลังการประมวลผล AI โดยพื้นฐานแล้วคือปัญหาของโปรโตคอลโครงสร้างพื้นฐาน ไม่ใช่แค่ปัญหาทางเทคนิคหรือผลิตภัณฑ์

1. คอขวดที่แท้จริงของ AI ไม่ได้อยู่ที่ชั้นโมเดลอีกต่อไป

ในอุตสาหกรรม AI ของปัจจุบัน ข้อเท็จจริงหนึ่งที่ถูกละเลยซ้ำแล้วซ้ำเล่าคือ สิ่งที่จำกัดการพัฒนา AI ไม่ใช่ความสามารถของโมเดลอีกต่อไป แต่คือความสามารถในการเข้าถึงพลังการประมวลผล

ลักษณะร่วมของระบบ AI กระแสหลักในปัจจุบันคือ โมเดล พลังการประมวลผล อินเทอร์เฟซ และอำนาจในการกำหนดราคาถูกผูกมัดอย่างแน่นหนาอยู่ในมือของกลุ่มผู้เล่นแบบรวมศูนย์กลุ่มเดียวกัน นี่ไม่ใช่ "ทางเลือก" ของบริษัทใดบริษัทหนึ่งหรือประเทศใดประเทศหนึ่ง แต่เป็นผลลัพธ์ตามธรรมชาติของอุตสาหกรรมที่ใช้เงินทุนหนาแน่นในสภาพแวดล้อมที่ขาดกลไกการประสานงานแบบเปิด

เมื่อพลังการประมวลผลถูกบรรจุเป็น "บริการคลาวด์" เพื่อขาย อำนาจในการตัดสินใจก็จะรวมศูนย์ไปในทิศทางต่อไปนี้โดยธรรมชาติ:

  • ความสามารถในการผลิตชิป
  • ขนาดของพลังงานและศูนย์ข้อมูล
  • โครงสร้างเงินทุนและข้อได้เปรียบทางภูมิศาสตร์

สิ่งนี้ทำให้พลังการประมวลผลค่อยๆ วิวัฒนาการจาก "ทรัพยากร" กลายเป็นอำนาจเชิงโครงสร้าง พลังการประมวลผลจึงมีราคาแพงและมีความโปร่งใสของราคาต่ำ ถูกควบคุมโดยภูมิรัฐศาสตร์ พลังงาน และข้อจำกัดทางการส่งออก ซึ่งไม่เป็นมิตรต่อนักพัฒนาและทีมขนาดเล็กและกลางอย่างมาก

การผลิต การติดตั้ง และการจัดสรร GPU ขั้นสูงรวมศูนย์อยู่ในมือของผู้ผลิตฮาร์ดแวร์และผู้ให้บริการคลาวด์ขนาดใหญ่พิเศษเพียงไม่กี่ราย ไม่เพียงส่งผลกระทบต่อบริษัทสตาร์ทอัพเท่านั้น แต่ยังกำลังส่งผลกระทบต่อขีดความสามารถในการแข่งขันด้าน AI ของทั้งภูมิภาคและประเทศ สำหรับนักพัฒนาหลายคน พลังการประมวลผลได้วิวัฒนาการจาก "ทรัพยากรทางเทคนิค" กลายเป็น "เกณฑ์การเข้าถึง" ปัญหาไม่ใช่แค่ราคาสูงหรือต่ำ แต่คือความสามารถในการได้รับความสามารถในการคำนวณที่ยั่งยืนและคาดการณ์ได้หรือไม่ ถูกผูกมัดกับระบบเทคโนโลยีและอุปทานเดียวหรือไม่ และสามารถมีส่วนร่วมในเศรษฐกิจพลังการประมวลผลระดับพื้นฐานได้หรือไม่

หาก AI จะกลายเป็นความสามารถพื้นฐานสากล กลไกการผลิตและการจัดสรรพลังการประมวลผลก็ไม่ควรอยู่ในสถานะที่ปิดกั้นสูงเป็นเวลานาน

2. จาก Bitcoin สู่ AI: ตรรกะร่วมของโปรโตคอลโครงสร้างพื้นฐาน

เราเอ่ยถึง Bitcoin ไม่ใช่เพื่อพูดคุยเกี่ยวกับราคาหรือคุณลักษณะทางการเงินของมัน แต่เพราะมันเป็นหนึ่งในไม่กี่ระบบโปรโตคอลที่ประสบความสำเร็จอย่างแท้จริงในการประสานทรัพยากรทางกายภาพระดับโลก

สิ่งที่ Bitcoin แก้ไข ไม่เคยเป็นเพียงปัญหา "การบันทึกบัญชี" เท่านั้น แต่เป็นปัญหาที่ลึกลงไปอีกสามประการ:

  1. วิธีจูงใจบุคคลแปลกหน้าให้ลงทุนทรัพยากรโลกแห่งความจริงอย่างต่อเนื่อง
  2. วิธีตรวจสอบว่าแหล่งข้อมูลเหล่านี้ได้รับการลงทุนและสร้างผลงานจริงหรือไม่
  3. วิธีรักษาเสถียรภาพของระบบในระยะยาวโดยไม่มีผู้ควบคุมศูนย์กลาง

มันใช้วิธีที่เรียบง่ายแต่ยากที่จะหลีกเลี่ยง ในการแปลงฮาร์ดแวร์และพลังงานให้กลายเป็น "การมีส่วนร่วม" ที่สามารถตรวจสอบได้ภายในโปรโตคอล

พลังการประมวลผล AI กำลังก้าวไปสู่ตำแหน่งที่คล้ายคลึงกับพลังงานและพลังการประมวลผลในอดีตอย่างมาก

เมื่อความสามารถหนึ่งมีความพื้นฐานและหายากเพียงพอ สิ่งที่มันต้องการในที่สุดไม่ใช่การบรรจุหีบห่อทางธุรกิจที่ประณีตยิ่งขึ้น แต่คือชั้นโปรโตคอลที่สามารถประสานทรัพยากรได้ในระยะยาว

ในเครือข่าย Gonka:

  • "งาน" ถูกกำหนดให้เป็นการคำนวณ AI ที่สามารถตรวจสอบได้
  • แรงจูงใจและสิทธิ์ในการกำกับดูแลมาจากการมีส่วนร่วมของพลังการประมวลผลจริง ไม่ใช่จากทุนหรือการเล่าเรื่อง
  • ทรัพยากร GPU ถูกใช้เพื่อทำงาน AI ที่มีความหมายให้มากที่สุด แทนที่จะเป็นการใช้ไปกับความปลอดภัยเชิงนามธรรม

นี่คือความพยายามในการนิยามพลังการประมวลผลใหม่ว่าเป็น "โครงสร้างพื้นฐานแบบเปิด"

3. ทำไมเริ่มจาก AI Inference ไม่ใช่ Training?

เราเลือกเริ่มจาก AI Inference ไม่ใช่เพราะการฝึกอบรมไม่สำคัญ แต่เพราะการอนุมานได้กลายเป็นคอขวดด้านพลังการประมวลผลที่เร่งด่วนที่สุดในโลกแห่งความเป็นจริง

ในขณะที่ AI ก้าวจากห้องทดลองสู่สภาพแวดล้อมการผลิต ต้นทุน ความเสถียร และความสามารถในการคาดการณ์ของการอนุมานอย่างต่อเนื่อง กำลังกลายเป็นปัญหาที่นักพัฒนาให้ความสนใจอย่างแท้จริง และในขั้นตอนนี้เอง ข้อจำกัดของบริการคลาวด์แบบรวมศูนย์ก็ปรากฏชัดเจนที่สุด

จากมุมมองการออกแบบเครือข่าย การอนุมานมีคุณลักษณะสำคัญหลายประการ:

  • ปริมาณงานต่อเนื่อง วัดผลได้
  • เหมาะสมกว่าสำหรับการปรับประสิทธิภาพในสภาพแวดล้อมแบบกระจายศูนย์
  • สามารถทดสอบได้จริงว่าการตรวจสอบพลังการประมวลผลและกลไกการจูงใจทำงานหรือไม่

การฝึกอบรมมีความสำคัญแน่นอน และเราก็วางแผนที่จะนำความสามารถในการฝึกอบรมเข้ามาในอนาคต และได้จัดสรรรายได้บางส่วนของเครือข่ายเพื่อสนับสนุนความต้องการการฝึกอบรมระยะยาวแล้ว แต่โครงสร้างพื้นฐานต้องทำงานได้ในความต้องการที่แท้จริงก่อน

5. พลังการประมวลผลแบบกระจายศูนย์ จะหลีกเลี่ยง "การคำนวณปลอม" ได้อย่างไร?

คำถามทั่วไปหนึ่งคือ: ในสภาพแวดล้อมแบบกระจายศูนย์ จะมั่นใจได้อย่างไรว่าโหนดกำลังทำการคำนวณ AI จริงๆ ไม่ใช่สร้างผลลัพธ์ปลอม?

คำตอบของเราคือ: ฝังตรรกะการตรวจสอบลงในการคำนวณเอง ทำให้อิทธิพลมาจากการมีส่วนร่วมในการคำนวณที่ต่อเนื่องและเป็นจริง

เครือข่ายผ่านขั้นตอนการคำนวณระยะสั้น (Sprint) กำหนดให้โหนดทำงานอนุมานบนโมเดล Transformer ขนาดใหญ่ที่ถูกกำหนดค่าเริ่มต้นแบบสุ่ม งานเหล่านี้:

  • ไม่สามารถคำนวณล่วงหน้าได้
  • ไม่สามารถนำผลลัพธ์ในอดีตกลับมาใช้ใหม่ได้
  • มีต้นทุนสูงกว่าต้นทุนในการปลอมแปลง

เครือข่ายไม่ตรวจสอบซ้ำทุกครั้งของการคำนวณแบบเต็ม แต่ผ่านการสุ่มตรวจสอบอย่างต่อเนื่องและการเพิ่มความเข้มข้นของการตรวจสอบแบบไดนามิก ทำให้การปลอมแปลงไม่คุ้มค่าทางเศรษฐกิจ โหนดที่ส่งผลลัพธ์ที่ถูกต้องอย่างมั่นคงในระยะยาว จะได้รับระดับการมีส่วนร่วมและอิทธิพลที่สูงขึ้นโดยธรรมชาติ

6. แข่งขันกับยักษ์ใหญ่แบบรวมศูนย์ หรือแก้ปัญหาที่ระดับชั้นต่างกัน?

เราไม่พยายามที่จะ "แทนที่" OpenAI, Google หรือ Microsoft

บริษัทเทคโนโลยีขนาดใหญ่สร้างสแต็ก AI ที่มีประสิทธิภาพภายในระบบปิด นี่คือจุดแข็งของพวกเขา แต่รูปแบบนี้นำมาซึ่งสิ่งต่อไปนี้โดยธรรมชาติ:

  • การเข้าถึงถูกจำกัด
  • ราคาไม่โปร่งใส
  • ความสามารถรวมศูนย์ไปยังผู้เล่นไม่กี่ราย

เราให้ความสนใจกับระดับชั้นที่ระบบเหล่านี้ยากจะครอบคลุม: การประสานงานพลังการประมวลผลระดับโครงสร้างพื้นฐานที่เปิดกว้าง ตรวจสอบได้

มันไม่ใช่บริการ แต่เป็นตลาดและโปรโตคอล ที่ให้ผู้ให้บริการฮาร์ดแวร์และนักพัฒนาแข่งขันกันโดยตรงเกี่ยวกับประสิทธิภาพและความแท้จริงของพลังการประมวลผล

7. พลังการประมวลผลจะถูก "ทำให้เป็นสินค้าโภคภัณฑ์" หรือไม่? คุณค่าจะไหลไปที่ไหน?

หลายคนคิดว่า เมื่อต้นทุนการอนุมานลดลง คุณค่าสุดท้ายจะรวมศูนย์อยู่ที่ชั้นโมเดล แต่ข้อสรุปนี้มักละเลยข้อกำหนดเบื้องต้นหนึ่ง:

พลังการประมวลผลไม่ใช่สินค้าที่มีอุปทานไม่จำกัด

พลังการประมวลผลถูกจำกัดโดย:

  • ความสามารถในการผลิตชิป
  • การกระจายตัวของพลังงานและภูมิศาสตร์
  • ประสิทธิภาพการประสานงานโครงสร้างพื้นฐาน

เมื่อความต้องการการอนุมานเติบโตอย่างต่อเนื่องทั่วโลก สิ่งที่หายากอย่างแท้จริงคืออุปทานพลังการประมวลผลที่มั่นคง คาดการณ์ได้ และขยายขนาดได้ และใครที่สามารถประสานทรัพยากรเหล่านี้ได้ คนนั้นก็จะควบคุมคุณค่าเชิงโครงสร้าง

สิ่งที่เราพยายามทำ ไม่ใช่การเป็นเจ้าของโมเดล แต่ทำให้ผู้มีส่วนร่วมมากขึ้นสามารถมีส่วนร่วมในเศรษฐกิจพลังการประมวลผลได้โดยตรง แทนที่จะเป็นเพียง "ผู้ใช้ที่จ่ายเงิน"

8. ทำไมพลังการประมวลผลแบบกระจายศูนย์จึงเป็นประเด็นระยะยาว?

ข้อสรุปของเราไม่ได้มาจากทฤษฎี แต่มาจากประสบการณ์จริงในการสร้างระบบ AI ในสภาพแวดล้อมแบบรวมศูนย์

เมื่อ AI กลายเป็นความสามารถหลัก การตัดสินใจเกี่ยวกับพลังการประมวลผลมักไม่ใช่ปัญหาทางเทคนิคอีกต่อไป แต่เป็นปัญหาด้านกลยุทธ์ การรวมศูนย์นี้กำลังขยายจากระดับธุรกิจ ไปสู่ระดับภูมิศาสตร์และอำนาจอธิปไตย

หาก AI คือโครงสร้างพื้นฐานใหม่ วิธีการประสานงานพลังการประมวลผลจะกำหนดระดับความเปิดกว้างของนวัตกรรมในอนาคต

ในประวัติศาสตร์ คลื่นเทคโนโลยีทุกครั้งที่ปลดปล่อยพลังการผลิตอย่างแท้จริง ในที่สุดล้วนต้องการชั้นโครงสร้างพื้นฐานแบบเปิด AI ก็จะไม่ใช่ข้อยกเว้น

สรุป: สองเส้นทางสู่อนาคต

เรากำลังมุ่งหน้าไปสู่อนาคตที่เป็นไปได้หนึ่งในสองทาง:

  • พลังการประมวลผลถูกรวมศูนย์อย่างต่อเนื่องโดยบริษัทและประเทศไม่กี่แห่ง AI กลายเป็นความสามารถที่ปิดกั้น
  • หรือ ผ่านโปรโตคอลแบบเปิดประสานพลังการประมวลผลระดับโลก ทำให้คุณค่าไหลไปสู่ผู้มีส่วนร่วมที่แท้จริง

Gonka ไม่ได้อ้างว่าเป็นคำตอบ แต่เรารู้ชัดว่าเรายืนอยู่ฝั่งไหน

หาก AI จะเปลี่ยนแปลงโลกอย่างลึกซึ้ง โครงสร้างพื้นฐานพลังการประมวลผลที่รองรับมัน ก็สมควรได้รับการออกแบบใหม่

เกี่ยวกับ Gonka.ai

Gonka เป็นเครือข่ายแบบกระจายศูนย์ที่มุ่งหมายให้บริการพลังการประมวลผล AI ที่มีประสิทธิภาพ โดยมีเป้าหมายการออกแบบเพื่อใช้ประโยชน์จากพลังการประมวลผล GPU ทั่วโลกให้มากที่สุด เพื่อทำงาน AI ที่มีความหมาย ด้วยการกำจัดผู้คุมประตูแบบรวมศูนย์ Gonka มอบการเข้าถึงทรัพยากรพลังการประมวลผลแบบไม่ต้องขออนุญาตแก่นักพัฒนาและนักวิจัย พร้อมทั้งให้รางวัลผู้มีส่วนร่วมทั้งหมดผ่านโทเค็นดั้งเดิม GNK

Gonka ถูกบ่มเพาะโดยบริษัทผู้พัฒนา AI สัญชาติอเมริกัน Product Science Inc. บริษัทนี้ก่อตั้งโดยพี่น้องตระกูล Libermans ผู้มีประสบการณ์ในอุตสาหกรรม Web 2 และอดีตผู้อำนวยการฝ่ายผลิตภัณฑ์หลักของ Snap Inc. และประสบความสำเร็จในการระดมทุน 18 ล้านดอลลาร์ในปี 2023 และเพิ่มการระดมทุนอีก 51 ล้านดอลลาร์ในปี 2025 โดยมีนักลงทุนรวมถึง Coatue Management นักลงทุนของ OpenAI, Slow Ventures นักลงทุนของ Solana, Bitfury, K5, Insight and Benchmark partners เป็นต้น ผู้มีส่วนร่วมในโครงการระยะแรกรวมถึงบริษัทชั้นนำที่มีชื่อเสียงในวงการ Web 2-Web 3 เช่น 6 blocks, Hard Yaka, Gcore

เว็บไซต์หลัก | Github | X | Discord | Telegram | เอกสารไวท์เปเปอร์ | โมเดลเศรษฐศาสตร์ | คู่มือผู้ใช้

นักพัฒนา
เทคโนโลยี
AI
ยินดีต้อนรับเข้าร่วมชุมชนทางการของ Odaily
กลุ่มสมาชิก
https://t.me/Odaily_News
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
บัญชีทางการ
https://twitter.com/OdailyChina
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
ค้นหา
สารบัญบทความ
ดาวน์โหลดแอพ Odaily พลาเน็ตเดลี่
ให้คนบางกลุ่มเข้าใจ Web3.0 ก่อน
IOS
Android