Gonka Protocol Co-founder Anastasia: ผู้ที่ควบคุมพลังการคำนวณ จะควบคุมอนาคตของ AI อย่างแฝงเร้น
- มุมมองหลัก: ผู้ร่วมก่อตั้ง Gonka เชื่อว่า คอขวดหลักและจุดอำนาจในอุตสาหกรรม AI กำลังเปลี่ยนจากโมเดลไปสู่พลังการคำนวณพื้นฐาน การรวมศูนย์ของมันจะนำไปสู่อุปสรรคด้านนวัตกรรม โมเดลการเก็บค่าเช่า และความเปราะบางเชิงระบบ ในขณะที่โปรโตคอล Gonka มีเป้าหมายเพื่อแก้ไขปัญหานี้ผ่านเครือข่ายแบบกระจายศูนย์ สร้างโครงสร้างพื้นฐานพลังการคำนวณ AI ที่ควบคุมได้และปลอดภัยยิ่งขึ้น
- องค์ประกอบสำคัญ:
- พลังการคำนวณกลายเป็นคอขวดสำคัญ: คอขวดหลักของ AI สมัยใหม่คือความสามารถในการเข้าถึง GPU พลังงานไฟฟ้า และความจุศูนย์ข้อมูล โครงสร้างพื้นฐานแบบรวมศูนย์กำลังเผชิญกับขีดจำกัดทางกายภาพ เช่น ความหนาแน่นของพลังงานและการระบายความร้อน
- ความเสี่ยงสามประการของพลังการคำนวณแบบรวมศูนย์: สร้างอุปสรรคเชิงโครงสร้างต่อนวัตกรรม ทีมขนาดเล็กถูกกีดกันด้วยราคา; เสริมสร้างโมเดล "การเก็บค่าเช่า" กดขี่การเข้าถึงปัญญาประดิษฐ์อย่างกว้างขวาง; นำมาซึ่งความเปราะบางเชิงระบบ ง่ายต่อการได้รับผลกระทบจากการกำกับดูแล การเมือง หรือการรบกวนทางกายภาพ
- การออกแบบประสิทธิภาพของ Gonka: การออกแบบโปรโตคอลรับประกันว่าพลังการคำนวณเกือบ 100% ถูกใช้สำหรับภาระงาน AI จริง (ส่วนใหญ่คือการอนุมาน) รายได้และน้ำหนักการกำกับดูแลขึ้นอยู่กับการมีส่วนร่วมของพลังการคำนวณที่วัดได้ ไม่ใช่การถือครองทุน
- สถาปัตยกรรมสำคัญในการลดค่าใช้จ่ายเครือข่าย: ใช้กลไกความปลอดภัยและการวัดแบบ "จำกัดเวลา" (เช่น วงรอบ Sprint) และผ่านการตรวจสอบแบบไดนามิกที่มีการเลือกสรรและอิงตามชื่อเสียง เพื่อควบคุมสัดส่วนพลังการคำนวณการตรวจสอบโดยรวมให้ต่ำกว่าประมาณ 10%
- หลักการรักษาการเข้าถึง: ให้การเข้าถึงแบบไม่ต้องขออนุญาต ให้รางวัลตามสัดส่วนของพลังการคำนวณที่ได้รับการยืนยัน และอนุญาตให้รวมทรัพยากรผ่านพูลพลังการคำนวณ ในขณะเดียวกันก็หลีกเลี่ยงการให้ข้อได้เปรียบเชิงโครงสร้างแก่พูลพลังการคำนวณขนาดใหญ่
- ความยืดหยุ่นในการรับมือกับการกำกับดูแล: สถาปัตยกรรมปัจจุบันลดการรวมศูนย์ข้อมูลผ่านการกำหนดเส้นทางแบบสุ่ม; ในอนาคตสามารถพัฒนาได้ผ่านการกำกับดูแลของชุมชน เพื่อสนับสนุนข้อกำหนดการปฏิบัติตามกฎระเบียบเฉพาะ เช่น เครือข่ายย่อยเฉพาะหรือสภาพแวดล้อมการปฏิบัติการที่เชื่อถือได้ (TEE)
- สนับสนุนเศรษฐกิจเอเจนต์ AI: ให้ API ที่เข้ากันได้กับ OpenAI เพื่อให้การผสานรวมที่ราบรื่น; ราคาปรับเปลี่ยนแบบไดนามิกตามภาระเครือข่าย ต้นทุนในระยะแรกต่ำกว่าผู้ให้บริการแบบรวมศูนย์อย่างมีนัยสำคัญ เพื่อสนับสนุนให้เอเจนต์ AI สามารถปรับทรัพยากรได้อย่างอิสระ

สรุปหลัก: การฝึกโมเดลขนาดใหญ่จำเป็นต้องสร้างหรืออัพเกรดศูนย์ข้อมูล แต่โครงสร้างพื้นฐานแบบรวมศูนย์ในปัจจุบันกำลังเผชิญกับขีดจำกัดทางกายภาพที่แข็งแกร่ง เพื่อเพิ่มขีดความสามารถของโครงสร้างพื้นฐาน AI ถูกนำมาใช้เพื่อสร้างผลลัพธ์ที่ใหญ่ขึ้นและชาญฉลาดยิ่งขึ้น
อย่างไรก็ตาม การควบคุมพลังการคำนวณกำลังกลายเป็นโหนดอำนาจที่สำคัญในอุตสาหกรรม AI
ในเวลานี้ Gonka ได้ถือกำเนิดขึ้น โปรโตคอล Gonka เป็นเครือข่ายระดับโลกที่ไม่ต้องขออนุญาต ใครก็ตามสามารถเข้าร่วมได้ ขอให้มีการกำหนดเส้นทางระหว่างผู้เข้าร่วมแบบกระจายอำนาจผ่านวิธีการที่เป็นโปรแกรม ในการสนทนาพิเศษกับ《Analytics Insight》 Anastasia Matveeva ผู้ร่วมก่อตั้งและผู้จัดการผลิตภัณฑ์อาวุโสของ Gonka ได้พูดคุยเกี่ยวกับวิธีการที่พวกเขานำนวัตกรรมมาใช้ในการเข้าถึงพลังการคำนวณ เพื่อสร้างระบบนิเวศ AI ที่ควบคุมได้และปลอดภัยยิ่งขึ้น
ถาม: การอภิปรายสาธารณะเกี่ยวกับ AI ส่วนใหญ่มุ่งเน้นไปที่ปัญหาการรวมศูนย์ของโมเดล แต่กลับให้ความสนใจกับการรวมศูนย์ของพลังการคำนวณน้อยกว่า เหตุใดการควบคุมพลังการคำนวณจึงกำลังกลายเป็นโหนดอำนาจที่สำคัญในอุตสาหกรรม AI? การรวมศูนย์นี้จะนำความเสี่ยงใดมาสู่นวัตกรรมและตลาดโดยรวม?
ตอบ: การอภิปรายสาธารณะมักจะมุ่งเน้นไปที่โมเดล เพราะโมเดลเป็นสิ่งที่มองเห็นได้ แต่แกนกลางของอำนาจที่แท้จริงอยู่ที่ระดับล่างกว่านั้น นั่นคือพลังการคำนวณ ซึ่งเป็นชั้นพื้นฐานที่กำหนดว่าใครสามารถสร้าง ใช้งาน และขยายระบบ AI ได้
การควบคุมพลังการคำนวณมีความสำคัญเนื่องจากเหตุผลทางเศรษฐกิจและกายภาพ คอขวดหลักของ AI สมัยใหม่ไม่ใช่อัลกอริทึมอีกต่อไป แต่เป็นความสามารถในการเข้าถึง GPU พลังงานไฟฟ้า และความจุของศูนย์ข้อมูล
การฝึกโมเดลขนาดใหญ่ต้องการการสร้างหรืออัพเกรดศูนย์ข้อมูลมากขึ้นเรื่อยๆ อย่างไรก็ตาม โครงสร้างพื้นฐานแบบรวมศูนย์กำลังเผชิญกับขีดจำกัดทางกายภาพ: ความหนาแน่นของพลังงาน ข้อจำกัดในการระบายความร้อน และความสามารถสูงสุดในการจ่ายไฟฟ้าที่สถานที่เดียวสามารถรองรับได้ อุตสาหกรรมกำลังพยายามหาทางแก้ไขขั้นสุด – การออกแบบชิปใหม่ ระบบระบายความร้อน และแหล่งพลังงานใหม่
การรวมศูนย์นี้นำมาซึ่งผลลัพธ์เชิงระบบ
ประการแรก มันสร้างอุปสรรคเชิงโครงสร้างต่อนวัตกรรม การเข้าถึงพลังการคำนวณกลายเป็นสิทธิพิเศษของโครงสร้างพื้นฐาน แทนที่จะเป็นการแข่งขันบนพื้นฐานความสามารถ ทีมขนาดเล็ก นักวิจัยอิสระ หรือแม้แต่ทั้งภูมิภาคถูกกีดกันด้วยราคา พื้นที่สำหรับการทดลองลดลง นวัตกรรมมีแนวโน้มที่จะอนุรักษ์นิยมมากขึ้น
ประการที่สอง การรวมศูนย์ของพลังการคำนวณทำให้รูปแบบ "การเก็บค่าเช่า" แข็งแกร่งขึ้น AI มีศักยภาพในการสร้าง "ความอุดมสมบูรณ์" – สติปัญญาโดยพื้นฐานแล้วสามารถทำซ้ำได้ – แต่เมื่อโครงสร้างพื้นฐานพื้นฐานขาดแคลนและถูกควบคุม ความอุดมสมบูรณ์นี้ถูกกดทับโดยมนุษย์ ตลาดหันไปใช้รูปแบบการสมัครสมาชิก ผลกระทบจากการล็อก และอำนาจในการกำหนดราคา แทนที่จะเป็นการลดต้นทุนและการเข้าถึงอย่างกว้างขวาง
ประการที่สาม มันนำมาซึ่งความเปราะบางเชิงระบบ เมื่อพลังการคำนวณขั้นสูงกระจุกตัวอยู่ที่ผู้ดำเนินงานและตำแหน่งที่ตั้งทางภูมิศาสตร์เพียงไม่กี่แห่ง การรบกวนด้านกฎระเบียบ การเมือง หรือทางกายภาพจะส่งผลกระทบต่อระบบนิเวศ AI ทั้งหมด การพึ่งพากลายเป็นโครงสร้าง ไม่ใช่ทางเลือก
ที่สำคัญกว่านั้น พลังการคำนวณไม่ใช่กลาง ใครควบคุมพลังการคำนวณ คนนั้นก็ตัดสินใจโดยปริยายว่าอะไรเป็นไปได้ อนุญาตได้ และยั่งยืนทางเศรษฐกิจ เมื่อการควบคุมนี้เป็นแบบรวมศูนย์ การกำกับดูแล AI จะเกิดขึ้นโดยค่าเริ่มต้น แทนที่จะถูกออกแบบมา
ความเสี่ยงไม่ใช่แค่การผูกขาด แต่เป็นการบิดเบือนวิถีการพัฒนา AI ในระยะยาว: ผู้สร้างน้อยลง ความหลากหลายของแอปพลิเคชันต่ำลง นวัตกรรมฮาร์ดแวร์ช้าลง และโครงสร้างพื้นฐานที่ไม่สามารถตอบสนองความทะเยอทะยานของโมเดลรุ่นต่อไปได้
ดังนั้น พลังการคำนวณต้องถูกมองว่าเป็นโครงสร้างพื้นฐานพื้นฐาน – สถาปัตยกรรมที่สามารถขยายได้ทั้งทางเศรษฐกิจและกายภาพ ซึ่งมีความสำคัญต่ออนาคตของ AI
ถาม: แพลตฟอร์มพลังการคำนวณ AI หลายแห่ง – ไม่ว่าจะเป็นแบบรวมศูนย์หรือกระจายอำนาจ – อ้างว่ามีประสิทธิภาพสูง เมื่อประเมินประสิทธิภาพของระบบพลังการคำนวณ AI ตัวชี้วัดที่สำคัญจริงๆ คืออะไร? โมเดลเหล่านี้มักพบกับข้อจำกัดจริงในด้านใด?
ตอบ: ประสิทธิภาพของพลังการคำนวณมักถูกใช้เป็นแนวคิดทางการตลาด ในความเป็นจริง มีตัวชี้วัดเฉพาะเพียงไม่กี่ตัวเท่านั้นที่สำคัญจริงๆ ซึ่งครอบคลุมประสิทธิภาพด้านผู้ใช้ ประสิทธิภาพการดำเนินงานของผู้ให้บริการ และโครงสร้างแรงจูงใจที่ควบคุมทั้งสองอย่าง
สำหรับผู้ใช้ ประสิทธิภาพหมายถึงความเร็วและความโปร่งใสของต้นทุน
ความเร็วหมายถึงความล่าช้าภายใต้ความต้องการจริง ศูนย์กลางแบบรวมศูนย์มักมีข้อได้เปรียบเนื่องจากที่ตั้งทางกายภาพร่วมกัน แต่สถาปัตยกรรมแบบกระจายอำนาจก็สามารถบรรลุประสิทธิภาพที่ใกล้เคียงกันได้ หากบล็อกเชนทำหน้าที่เป็นเพียงชั้นความปลอดภัย และไม่เกี่ยวข้องกับเส้นทางการดำเนินงานแบบเรียลไทม์ ตราบใดที่คำขอยังคงถูกประมวลผลนอกเชน โปรโตคอลเองจะไม่เพิ่มความล่าช้า
ความโปร่งใสของต้นทุนก็มีความสำคัญเช่นกัน แม้ว่า "ต้นทุนต่อโทเค็น" จะเป็น KPI ทั่วไป แต่ความสมบูรณ์ของโมเดลมักขาดความโปร่งใส ในสภาพแวดล้อมแบบรวมศูนย์ ผลิตภัณฑ์อาจเป็นกล่องดำ ในช่วงที่มีความต้องการสูง ผู้ให้บริการอาจปรับการกำหนดค่าโมเดลเพื่อรักษากำไร การเปลี่ยนแปลงเหล่านี้มักมองไม่เห็น แต่สามารถส่งผลกระทบต่อคุณภาพของผลลัพธ์ ประสิทธิภาพที่แท้จริงต้องการให้การกำหนดราคาสะท้อนถึงความแม่นยำในการคำนวณที่สม่ำเสมอ
สำหรับผู้ให้บริการ ประสิทธิภาพคือความสมดุลระหว่างการใช้ GPU และความยืดหยุ่น
ผู้ดำเนินงานแบบรวมศูนย์แสดงผลดีในด้านการใช้งาน ในสภาพแวดล้อมที่ตั้งร่วมกัน GPU สามารถทำงานได้ใกล้เคียงกับความจุเต็ม แต่ขาดความยืดหยุ่น และต้องแบกรับต้นทุนจากการไม่ได้ใช้งานในช่วงที่ความต้องการตกต่ำ
เครือข่ายแบบกระจายอำนาจเสียสละการใช้งานบางส่วนเพื่อแลกกับความยืดหยุ่น แต่ต้องลดค่าใช้จ่ายด้านฉันทามติและการตรวจสอบให้น้อยที่สุด เพื่อให้สามารถกระจายพลังการคำนวณใหม่ระหว่างปริมาณงานต่างๆ ตามความต้องการ
สิ่งที่สำคัญที่สุดคือการออกแบบแรงจูงใจ
เมื่อรายได้เชื่อมโยงกับปริมาณงาน AI ที่เร็วขึ้น ถูกกว่า และตรวจสอบได้ การปรับให้เหมาะสมจะกลายเป็นโครงสร้าง ผู้เข้าร่วมมีแรงจูงใจที่จะปรับปรุงประสิทธิภาพฮาร์ดแวร์ ลดความล่าช้า ทดลองใช้ชิปเฉพาะทาง
ในทางกลับกัน หากรางวัลหรือน้ำหนักการกำกับดูแลเชื่อมโยงกับทุนที่ถือครองเป็นหลัก ทิศทางการปรับให้เหมาะสมจะเบี่ยงเบนไปจากประสิทธิภาพของโครงสร้างพื้นฐาน และความไม่มีประสิทธิภาพจะถูกทำให้คงที่
ใน Gonka ประสิทธิภาพถูกฝังอยู่ในชั้นโปรโตคอล: เกือบ 100% ของพลังการคำนวณถูกใช้สำหรับปริมาณงาน AI จริง (ส่วนใหญ่เป็นการอนุมาน) รายได้และน้ำหนักการกำกับดูแลขึ้นอยู่กับการมีส่วนร่วมของพลังการคำนวณที่วัดได้ ไม่ใช่การถือครองทุน
ประสิทธิภาพที่แท้จริงจะเกิดขึ้นก็ต่อเมื่อพลังการคำนวณส่วนใหญ่ถูกใช้สำหรับงานจริง แรงจูงใจให้รางวัลสำหรับการมีส่วนร่วมที่ได้รับการยืนยัน และค่าใช้จ่ายภายในไม่เพิ่มขึ้นอย่างควบคุมไม่ได้ตามขนาดของเครือข่าย
ถาม: เครือข่ายพลังการคำนวณ AI แบบกระจายอำนาจเป็นไปได้หรือไม่ที่จะใช้พลังการคำนวณส่วนใหญ่สำหรับปริมาณงาน AI จริง แทนที่จะใช้เพื่อบำรุงรักษาเครือข่ายเอง? ทางเลือกทางสถาปัตยกรรมที่สำคัญคืออะไร?
ตอบ: เป็นไปได้ – แต่ต้องถือว่าค่าใช้จ่ายเป็นข้อจำกัดทางสถาปัตยกรรมหลัก ไม่ใช่ผลข้างเคียงที่หลีกเลี่ยงไม่ได้ของการกระจายอำนาจ
เครือข่ายพลังการคำนวณแบบกระจายอำนาจส่วนใหญ่ใช้ทรัพยากรจำนวนมากเพื่อรักษาฉันทามติและความปลอดภัย แทนที่จะเป็นปริมาณงาน AI นี่เป็นเพราะงานที่ผลิตได้และกลไกความปลอดภัยถูกแยกออกจากกัน ส่งผลให้เกิดการคำนวณซ้ำซ้อน
เพื่อให้พลังการคำนวณส่วนใหญ่ใช้สำหรับงาน AI จริง จำเป็นต้องมีหลักการสำคัญหลายประการ:
ประการแรก กลไกความปลอดภัยและการวัดต้องเป็นแบบ "จำกัดเวลา" ไม่ใช่การทำงานอย่างต่อเนื่อง กลไกการพิสูจน์ควรรวมศูนย์ในช่วงเวลาสั้นๆ ที่ชัดเจน แทนที่จะใช้ทรัพยากรอย่างต่อเนื่อง ใน Gonka สิ่งนี้ทำได้ผ่าน Sprint (รอบที่มีโครงสร้างและจำกัดเวลา) นอกช่วงเวลา ทรัพยากรฮาร์ดแวร์สามารถใช้สำหรับปริมาณงาน AI จริงได้
ประการที่สอง ลดการซ้ำซ้อนโดยการปรับการตรวจสอบแบบเลือกสรรและตามชื่อเสียง แทนที่จะตรวจสอบยืนยันงานทุกงานอย่างสมบูรณ์ งานของผู้เข้าร่วมใหม่อาจถูกตรวจสอบ 100%; เมื่อชื่อเสียงถูกสร้างขึ้น อัตราส่วนการตรวจสอบสามารถลดลงเหลือประมาณ 1% พลังการคำนวณการตรวจสอบโดยรวมสามารถควบคุมให้ต่ำกว่า 10% ในขณะที่ยังคงรักษาความปลอดภัยไว้
ผู้เข้าร่วมที่พยายามโกงจะไม่ได้รับรางวัล ดังนั้นการโกงจึงไม่สมเหตุสมผลทางเศรษฐกิจ
ประการที่สาม รางวัลและน้ำหนักการกำกับดูแลต้องเชื่อมโยงกับการมีส่วนร่วมของพลังการคำนวณที่ได้รับการยืนยัน ไม่ใช่การถือครองทุน
เมื่อฉันทามติมีน้ำหนักเบา การตรวจสอบปรับตัวได้ และแรงจูงใจสอดคล้องกับการคำนวณที่ผลิตได้ พลังการคำนวณแบบกระจายอำนาจจึงสามารถให้บริการปริมาณงานจริงได้อย่างแท้จริง
ถาม: เครือข่ายพลังการคำนวณ AI แบบกระจายอำนาจมักเน้นย้ำถึงการมีส่วนร่วมที่เปิดกว้าง แต่ข้อกำหนดด้านโครงสร้างพื้นฐานอาจสร้างเกณฑ์การเข้าสูง ระบบดังกล่าวจะสามารถขยายขนาดได้อย่างไร ในขณะที่ยังคงเข้าถึงได้สำหรับผู้เข้าร่วมที่มีระดับพลังการคำนวณแตกต่างกันมาก?
ตอบ: แม้ว่าเครือข่ายแบบกระจายอำนาจมีจุดมุ่งหมายเพื่อลดเกณฑ์การเข้าสู่โครงสร้างพื้นฐาน AI แต่การอยู่รอดในระยะยาวก็ต้องการการแข่งขันกับผู้ให้บริการแบบรวมศูนย์ และตอบสนองความต้องการของโลกแห่งความเป็นจริง ข้อจำกัดด้านฮาร์ดแวร์ในที่สุดแล้วลงมาที่ข้อกำหนดหลักหนึ่งข้อ: ความสามารถในการรองรับโมเดลที่มีความต้องการในตลาดจริง
เพื่อให้สามารถขยายขนาดได้ในขณะที่ยังคงการเข้าถึง มีหลักการสำคัญหลายประการ
ประการแรก คือการเข้าถึงโครงสร้างพื้นฐานที่ไม่ต้องขออนุญาต เจ้าของ GPU ทุกคน – ไม่ว่าจะเป็นผู้ดำเนินการอุปกรณ์เดี่ยว หรือศูนย์ข้อมูลขนาดใหญ่ – ควรสามารถเข้าร่วมเครือข่ายได้โดยไม่ต้องผ่านกระบวนการอนุมัติหรือกลไกผู้คุมประตูแบบรวมศูนย์ สิ่งนี้ขจัดอุปสรรคเชิงโครงสร้างในการเข้าถึง
ประการที่สอง คือรางวัลและอิทธิพลตามสัดส่วนของพลังการคำนวณที่ได้รับการยืนยัน ในโมเดลที่ใช้น้ำหนักพลังการคำนวณ การมีส่วนร่วมในการคำนวณที่สูงขึ้นตามธรรมชาติจะนำมาซึ่งส่วนแบ่งงานที่มากขึ้น ส่วนแบ่งรางวัล และน้ำหนักการกำกับดูแล สิ่งนี้จะไม่ทำให้ผู้เข้าร่วมขนาดเล็กเท่าเทียมกับผู้เข้าร่วมขนาดใหญ่โดยสิ้นเชิง – และไม่ควรเป็นเช่นนั้น ประเด็นสำคัญคือกฎที่สม่ำเสมอ: อิทธิพลถูกกำหนดโดยการมีส่วนร่วมในการคำนวณจริง ไม่ใช่โดยทุน กลไกการมอบหมาย หรือเลเวอเรจทางการเงิน
ประการที่สาม คือบทบาทของพูลพลังการคำนวณ (Pools) ในระบบที่มีข้อกำหนดโครงสร้างพื้นฐานจริง การรวมทรัพยากรจะเกิดขึ้นตามธรรมชาติ พูลพลังการคำนวณอนุญาตให้ผู้เข้าร่วมขนาดเล็กรวมทรัพยากร ลดความผันผวน และมีส่วนร่วมในปริมาณงานขนาดใหญ่
อย่างไรก็ตาม สถาปัตยกรรมต้องหลีกเลี่ยงการให้ข้อได้เปรียบเชิงโครงสร้างแก่พูลพลังการคำนวณขนาดใหญ่ หรือกระตุ้นให้เกิดความเข้มข้นของอิทธิพลที่มากเกินไป พูลพลังการคำนวณควรมีอยู่เป็นเครื่องมือประสานงาน ไม่ใช่กลไกการรวมศูนย์ซ้ำ
ในที่สุด การขยายขนาดของเครือข่ายพลังการคำนวณ AI แบบกระจายอำนาจไม่ควรหมายถึงการเพิ่มเกณฑ์การเข้า มันควรหมายถึงการเพิ่มความจุพลังการคำนวณโดยรวม ในขณะที่รักษากฎการมีส่วนร่วมที่เป็นกลาง โปร่งใส และสม่ำเสมอ พร้อมทั้งรักษาคุณค่าทางเศรษฐกิจจริงที่เครือข่ายสร้างขึ้นสำหรับผู้ใช้ การเข้าถึงแบบเปิด กลไกทางเศรษฐกิจตามสัดส่วน และระดับความเข้มข้นที่ควบคุมได้ เป็นตัวกำหนดว่าระบบจะยังคงกระจายอำนาจในขณะที่เติบโตหรือไม่
ถาม: เหตุใดในเวลาปัจจุบัน ปัญหาของพลังการคำนวณ AI แบบกระจายอำนาจจึงมีความเร่งด่วนเป็นพิเศษ? หากไม่แก้ไขปัญหานี้ภายในสองสามปีข้างหน้า คุณคิดว่าผลกระทบระยะยาวต่ออุตสาหกรรมจะเป็นอย่างไร?
ตอบ: ความเร่งด่วนนี้สะท้อนให้เห็นว่า AI กำลังเปลี่ยนจากระยะการทดลองไปสู่ระยะโครงสร้างพื้นฐาน
ดังที่กล่าวไว้ก่อนหน้านี้ พลังการคำนวณได้กลายเป็นคอขวดทางกายภาพ ความสามารถในการขยายตัวไม่เพียงแต่ถูกจำกัดด้วยเงินทุนมากขึ้นเรื่อยๆ แต่ยังถูกจำกัดด้วยพลังงาน ความหนาแน่นของพลังงาน และข้อจำกัดของศูนย์ข้อมูล ในเวลาเดียวกัน การเข้าถึง GPU ขั้นสูงและโครงสร้างพื้นฐานขนาดใหญ่พิเศษได้รับอิทธิพลจากสัญญาระยะยาว การรวมศูนย์ขององค์กร และลำดับความสำคัญเชิงกลยุทธ์ระดับชาติ
การรวมกันนี้ทำให้ความไม่สมมาตรเชิงโครงสร้างลึกซึ้งยิ่งขึ้น หน่วยงานที่ควบคุมโครงสร้างพื้นฐานขนาดใหญ่ยังคงรวมความได้เปรียบของพวกเขา ในขณะที่เกณฑ์การเข้าสำหรับ


