Jensen Huang Podcast Transcript: NVIDIA's Moat Runs Much Deeper Than Chips
- มุมมองหลัก: กำแพงป้องกันหลักของ NVIDIA ไม่ใช่แค่ความได้เปรียบด้านฮาร์ดแวร์ชิปหรือห่วงโซ่อุปทาน แต่เป็นความสามารถของระบบแบบครบวงจรในการ "เปลี่ยนอิเล็กตรอนเป็นโทเค็น" ซึ่งรวมถึงการทำงานร่วมกันของสถาปัตยกรรมการคำนวณ ระบบนิเวศซอฟต์แวร์ CUDA และเครือข่ายนักพัฒนา ทำให้บริษัทกลายเป็นผู้กำหนดโครงสร้างพื้นฐานในยุค AI
- ปัจจัยสำคัญ:
- ความได้เปรียบในการแข่งขันของ NVIDIA อยู่ที่การพึ่งพาเส้นทางที่เกิดจากระบบนิเวศ CUDA นักพัฒนา AI กรอบงาน และโมเดลที่ใหญ่ที่สุดในโลกต่างผูกติดกับสแต็กเทคโนโลยีของบริษัท ทำให้ยากต่อการถูกแทนที่
- กุญแจสำคัญในการแข่งขันด้าน AI คือการปรับให้เหมาะสมของชุด "สแต็กการคำนวณ × อัลกอริทึม × วิศวกรรมระบบ" ซึ่งให้ประสิทธิภาพที่เพิ่มขึ้นอย่างมากเมื่อเทียบกับการพึ่งพาความก้าวหน้าของกระบวนการผลิตเพียงอย่างเดียว
- กลยุทธ์ของ NVIDIA คือ "ทำทุกสิ่งที่จำเป็น แต่ไม่ทำทุกอย่าง" เช่น ไม่เข้าสู่ธุรกิจคลาวด์คอมพิวติ้ง แต่ขยายขนาดตลาดโดยรวมผ่านการลงทุนและการสนับสนุนระบบนิเวศ
- ความเสี่ยงเชิงกลยุทธ์ระยะยาวที่แท้จริงไม่ใช่คู่แข่งที่ได้รับพลังการคำนวณ แต่เป็นระบบนิเวศ AI ทั่วโลกที่อาจไม่ได้อยู่บนพื้นฐานของสแต็กเทคโนโลยีของสหรัฐอเมริกา (NVIDIA) อีกต่อไป ซึ่งนำไปสู่การเปลี่ยนมือการควบคุมอุตสาหกรรม
- ซอฟต์แวร์ AI จะไม่ถูกทำให้เป็นสินค้าโภคภัณฑ์โดย AI ในทางตรงกันข้าม เมื่อ Agent แพร่หลาย การเรียกใช้เครื่องมือจะเพิ่มขึ้นแบบทวีคูณ และคุณค่าของซอฟต์แวร์จะถูกขยายเพิ่มขึ้น
- ข้อจำกัดด้านพลังการคำนวณเป็นปัญหาระยะสั้น อุปทานจะถูกเติมเต็มโดยแรงขับเคลื่อนจากความต้องการภายใน 2-3 ปี ข้อจำกัดระยะยาวที่แท้จริงคือพลังงานและโครงสร้างพื้นฐาน
ชื่อวิดีโอ: Jensen Huang: – Will Nvidia's moat persist?
ผู้สร้างวิดีโอ: Dwarkesh Patel
เรียบเรียง: Peggy, BlockBeats
หมายเหตุบรรณาธิการ: ในขณะที่โลกภายนอกยังคงถกเถียงกันว่า "คูน้ำของ Nvidia มาจากห่วงโซ่อุปทานหรือไม่" การสนทนานี้เชื่อว่าสิ่งที่ยากต่อการลอกเลียนแบบจริงๆ ไม่ใช่ตัวชิปเอง แต่คือความสามารถของระบบทั้งหมดในการ "เปลี่ยนอิเล็กตรอนเป็น Token" นั่นคือการทำงานร่วมกันของสถาปัตยกรรมการคำนวณ ระบบซอฟต์แวร์ และระบบนิเวศนักพัฒนา
บทความนี้เรียบเรียงจากการสนทนาระหว่าง Dwarkesh Patel และ Jensen Huang Dwarkesh Patel เป็นหนึ่งในผู้จัดพอดแคสต์เทคโนโลยีที่ได้รับความสนใจมากที่สุดในซิลิคอนวัลเลย์ในปัจจุบัน ดูแลช่อง YouTube Dwarkesh Podcast มีความเชี่ยวชาญในการสัมภาษณ์เชิงลึกแบบวิจัย และสนทนายาวนานกับนักวิจัย AI และบุคคลสำคัญในอุตสาหกรรมเทคโนโลยี

ด้านขวาคือ Dwarkesh Patel ด้านซ้ายคือ Jensen Huang
รอบแกนกลางนี้ การสนทนานี้สามารถเข้าใจได้ในสามระดับ
ประการแรก คือการเปลี่ยนแปลงของโครงสร้างเทคโนโลยีและอุตสาหกรรม
ข้อได้เปรียบของ Nvidia ไม่ได้อยู่ที่เพียงประสิทธิภาพฮาร์ดแวร์ แต่ยังอยู่ที่ระบบนิเวศนักพัฒนาที่ CUDA นำพา และการพึ่งพาเส้นทางที่เกิดขึ้นรอบสแต็กการคำนวณ ในระบบนี้ พลังการคำนวณไม่ใช่ตัวแปรเดียวอีกต่อไป อัลกอริทึม วิศวกรรมระบบ เครือข่าย และประสิทธิภาพการใช้พลังงานร่วมกันกำหนดความเร็วในการพัฒนา AI สิ่งนี้นำไปสู่การตัดสินที่สำคัญ: ซอฟต์แวร์จะไม่ถูก "Commoditize" อย่างง่ายดายเพราะ AI ในทางตรงกันข้าม เมื่อ Agent แพร่หลาย การเรียกใช้เครื่องมือจะเพิ่มขึ้นแบบทวีคูณ ทำให้คุณค่าของซอฟต์แวร์ถูกขยายเพิ่มขึ้น
ประการที่สอง คือขอบเขตทางธุรกิจและการเลือกกลยุทธ์
เมื่อเผชิญกับห่วงโซ่อุตสาหกรรม AI ที่ขยายตัวอย่างต่อเนื่อง Nvidia เลือกที่จะ "ทำทุกสิ่งที่จำเป็น แต่ไม่ทำทั้งหมด" บริษัทไม่เข้าสู่คลาวด์คอมพิวติ้ง และไม่ทำการบูรณาการแนวตั้งมากเกินไป แต่ขยายขนาดตลาดโดยรวมผ่านการลงทุนและการสนับสนุนระบบนิเวศ ความยับยั้งชั่งใจนี้ทำให้บริษัทยังคงควบคุมได้ในขณะที่หลีกเลี่ยงการเป็นผู้แทนที่ระบบนิเวศ จึงดึงผู้เข้าร่วมมากขึ้นเข้าสู่ระบบเทคโนโลยีของตน
ประการที่สาม คือความแตกต่างเกี่ยวกับการแพร่กระจายเทคโนโลยีและโครงสร้างอุตสาหกรรม
ส่วนที่มีความตึงเครียดที่สุดในการสนทนา ไม่ได้อยู่ที่ข้อสรุปเฉพาะ แต่คือการเข้าใจ "ความเสี่ยง" เอง มุมมองหนึ่งเน้นย้ำถึงข้อได้เปรียบจากการเป็นผู้นำด้านพลังการคำนวณ ในขณะที่อีกมุมมองให้ความสำคัญกับการเป็นเจ้าของระบบนิเวศและมาตรฐานในระยะยาวระหว่างกระบวนการแพร่กระจายเทคโนโลยี เมื่อเทียบกับช่องว่างความสามารถในระยะสั้น คำถามที่สำคัญกว่าอาจคือ: แบบจำลอง AI และนักพัฒนาในอนาคต จะทำงานบนระบบเทคโนโลยีชุดใด
กล่าวอีกนัยหนึ่ง จุดจบของการแข่งขันนี้ ไม่ใช่แค่ "ใครสร้างแบบจำลองที่แข็งแกร่งกว่าก่อน" แต่คือ "ใครกำหนดโครงสร้างพื้นฐานที่แบบจำลองทำงาน"
ในแง่นี้ บทบาทของ Nvidia ไม่ได้เป็นเพียงบริษัทชิปอีกต่อไป แต่ใกล้เคียงกับ "ผู้ให้บริการระบบปฏิบัติการระดับล่างในยุค AI" มากขึ้น – บริษัทพยายามให้แน่ใจว่าไม่ว่าความสามารถในการคำนวณจะแพร่กระจายอย่างไร เส้นทางของการสร้างคุณค่ายังคงดำเนินการรอบตัวบริษัท
ต่อไปนี้เป็นเนื้อหาต้นฉบับ (จัดเรียงใหม่เพื่อความสะดวกในการอ่าน):
TL;DR
· คูน้ำของ Nvidia ไม่ได้อยู่ที่ "ชิป" แต่อยู่ที่ "ความสามารถของระบบทั้งหมดจากอิเล็กตรอนถึง Token" แกนกลางไม่ใช่ประสิทธิภาพฮาร์ดแวร์ แต่คือความสามารถแบบ Full-stack ในการเปลี่ยนการคำนวณเป็นคุณค่า (สถาปัตยกรรม + ซอฟต์แวร์ + ระบบนิเวศ)
· ข้อได้เปรียบโดยธรรมชาติของ CUDA ไม่ใช่เครื่องมือ แต่คือระบบนิเวศนักพัฒนา AI ที่ใหญ่ที่สุดในโลก นักพัฒนา เฟรมเวิร์ก แบบจำลอง ทั้งหมดถูกผูกไว้บนสแต็กเทคโนโลยีเดียวกัน สร้างการพึ่งพาเส้นทางที่ยากต่อการแทนที่
· กุญแจสำคัญในการแข่งขัน AI ไม่ใช่แค่พลังการคำนวณ แต่คือการรวมกันของ "สแต็กการคำนวณ × อัลกอริทึม × วิศวกรรมระบบ" การปรับปรุงที่มาจากการทำงานร่วมกันของสถาปัตยกรรม เครือข่าย ประสิทธิภาพการใช้พลังงาน ซอฟต์แวร์ เกินกว่าความก้าวหน้าของกระบวนการผลิตเพียงอย่างเดียว
· คอขวดด้านพลังการคำนวณเป็นปัญหาระยะสั้น อุปทานจะถูกเติมเต็มโดยสัญญาณความต้องการภายใน 2-3 ปี ข้อจำกัดระยะยาวที่แท้จริงไม่ใช่ชิป แต่คือพลังงานและโครงสร้างพื้นฐาน
· ซอฟต์แวร์ AI จะไม่ถูก Commoditize ในทางกลับกัน การระเบิดของ Agent จะนำไปสู่การเติบโตแบบทวีคูณของการใช้เครื่องมือ อนาคตไม่ใช่ซอฟต์แวร์ถูกลง แต่คือจำนวนครั้งที่เรียกใช้ซอฟต์แวร์พุ่งสูงขึ้น
· การไม่ทำคลาวด์เป็นกลยุทธ์หลักของ Nvidia: ทำ "ทุกสิ่งที่จำเป็น" แต่ไม่กลืนห่วงโซ่คุณค่าทั้งหมด ขยายขนาดตลาดโดยรวมผ่านการลงทุนและการสนับสนุนระบบนิเวศ แทนที่จะบูรณาการแนวตั้ง
· ความเสี่ยงเชิงกลยุทธ์ที่แท้จริงไม่ใช่คู่แข่งได้พลังการคำนวณ แต่คือระบบนิเวศ AI ทั่วโลกไม่ยึดตามสแต็กเทคโนโลยีของสหรัฐฯ อีกต่อไป เมื่อแบบจำลองและนักพัฒนาโยกย้าย มาตรฐานเทคโนโลยีระยะยาวและอำนาจนำในอุตสาหกรรมจะย้ายตามไปด้วย
เนื้อหาการสัมภาษณ์
คูน้ำของ Nvidia อยู่ที่ไหน: ห่วงโซ่อุปทาน หรืออำนาจควบคุมจาก "อิเล็กตรอนถึง Token"?
Dwarkesh Patel (ผู้สัมภาษณ์):
เราได้เห็นแล้วว่ามูลค่าตลาดของบริษัทซอฟต์แวร์หลายแห่งลดลง เพราะทุกคนคาดว่า AI จะเปลี่ยนซอฟต์แวร์ให้เป็นสินค้ามาตรฐาน ยังมีวิธีเข้าใจที่ค่อนข้างไร้เดียงสาอีกวิธีหนึ่ง โดยคร่าวๆ คือ: ดูสิ ไฟล์การออกแบบ (GDS2) ถูกส่งให้ TSMC TSMC รับผิดชอบการผลิตชิปลอจิก แผ่นเวเฟอร์ สร้างวงจรสวิตช์ จากนั้นจึงแพ็คเกจร่วมกับ HBM ที่ผลิตโดย SK Hynix, Micron, Samsung สุดท้ายส่งไปที่ ODM เพื่อประกอบเป็นแร็คเครื่อง
หมายเหตุ: HBM (High Bandwidth Memory) เป็นเทคโนโลยีหน่วยความจำขั้นสูงที่ออกแบบมาเฉพาะสำหรับการคำนวณประสิทธิภาพสูงและ AI; ODM (Original Design Manufacturer) หมายถึงผู้รับจ้างผลิตที่รับผิดชอบไม่เพียงแต่การผลิต แต่ยังรวมถึงการออกแบบผลิตภัณฑ์ด้วย
ดังนั้น จากมุมมองนี้ Nvidia ทำซอฟต์แวร์โดยพื้นฐาน ส่วนการผลิตทำโดยคนอื่น หากซอฟต์แวร์ถูก Commoditize Nvidia ก็จะถูก Commoditize ด้วย
Jensen Huang (CEO ของ Nvidia):
แต่ท้ายที่สุดแล้ว ต้องมีกระบวนการเปลี่ยนอิเล็กตรอนเป็น token อยู่เสมอ จากอิเล็กตรอนถึง token และทำให้ token เหล่านี้มีคุณค่ามากขึ้นตามเวลา การเปลี่ยนแปลงนี้ฉันคิดว่ายากที่จะถูก Commoditize อย่างสมบูรณ์
การแปลงจากอิเล็กตรอนเป็น token นั้นเป็นกระบวนการที่พิเศษมากในตัวของมันเอง และการทำให้ token มีคุณค่ามากขึ้น เหมือนกับการทำให้โมเลกุลหนึ่งมีคุณค่ามากกว่าโมเลกุลอื่น คือการทำให้ token หนึ่งมีคุณค่ามากกว่า token อื่น
ในกระบวนการนี้ มีศิลปะ วิศวกรรม วิทยาศาสตร์ และการประดิษฐ์จำนวนมากที่ทำให้ token นี้มีคุณค่า
เห็นได้ชัดว่าเรากำลังสังเกตสิ่งนี้เกิดขึ้นแบบเรียลไทม์ ดังนั้นกระบวนการแปลงนี้ กระบวนการผลิต และสัญญาณต่างๆ ที่เกี่ยวข้อง ยังไม่ถูกเข้าใจอย่างสมบูรณ์จริงๆ และการเดินทางนี้ยังห่างไกลจากจุดจบ ดังนั้นฉันไม่คิดว่าสถานการณ์นั้นจะเกิดขึ้น
แน่นอน เราจะทำให้มีประสิทธิภาพมากขึ้น อันที่จริง วิธีที่คุณอธิบายปัญหาก่อนหน้านี้ คือแบบจำลองทางจิตของฉันสำหรับ Nvidia: อินพุตคืออิเล็กตรอน เอาต์พุตคือ token ส่วนตรงกลางนี้คือ Nvidia
งานของเราคือ "ทำทุกสิ่งที่จำเป็นให้มากที่สุดเท่าที่เป็นไปได้ ในขณะที่ทำสิ่งที่ไม่จำเป็นให้น้อยที่สุดเท่าที่เป็นไปได้" เพื่อให้เกิดการเปลี่ยนแปลงนี้ และทำให้มันมีความสามารถสูงมาก
สิ่งที่ฉันหมายถึงโดย "ทำให้น้อยที่สุดเท่าที่เป็นไปได้" คือส่วนใดก็ตามที่เราไม่จำเป็นต้องทำเอง เราจะร่วมมือกับผู้อื่นและรวมมันเข้ากับระบบนิเวศของเรา หากคุณดู Nvidia ในวันนี้ เราอาจมีระบบนิเวศความร่วมมือที่ใหญ่ที่สุดแห่งหนึ่งในห่วงโซ่อุปทานต้นน้ำและปลายน้ำ ตั้งแต่ผู้ผลิตคอมพิวเตอร์ นักพัฒนาแอปพลิเคชัน ไปจนถึงนักพัฒนาแบบจำลอง – คุณสามารถมองว่า AI เป็น "เค้กห้าชั้น" และเรามีการจัดวางระบบนิเวศในทั้งห้าชั้นนี้
อ่านเพิ่มเติม: "บทความล่าสุดของ Jensen Huang แห่ง Nvidia: 'เค้กห้าชั้น' ของ AI"
ดังนั้นเราจึงพยายามทำให้น้อยที่สุด แต่ส่วนที่เราต้องทำนั้นยากอย่างยิ่ง และฉันไม่คิดว่าส่วนนั้นจะถูก Commoditize
อันที่จริง ฉันไม่คิดด้วยว่าบริษัทซอฟต์แวร์องค์กรโดยพื้นฐานแล้วกำลังทำ "การสร้างเครื่องมือ" แต่ความเป็นจริงคือ บริษัทซอฟต์แวร์ส่วนใหญ่ในวันนี้เป็นผู้ให้เครื่องมือจริงๆ
แน่นอนว่ามีข้อยกเว้น บางบริษัทกำลังทำการเข้ารหัสและทำให้ระบบเวิร์กโฟลว์คงที่ แต่หลายบริษัทเป็นบริษัทเครื่องมือโดยพื้นฐาน
เช่น Excel เป็นเครื่องมือ PowerPoint เป็นเครื่องมือ Cadence ทำเครื่องมือ Synopsys ก็เป็นเครื่องมือ
Jensen Huang:
และแนวโน้มที่ฉันเห็น ตรงกันข้ามกับที่หลายคนคิด ฉันเชื่อว่าจำนวน agent จะเติบโตแบบทวีคูณ และจำนวนผู้ใช้เครื่องมือก็จะเติบโตแบบทวีคูณเช่นกัน
จำนวนอินสแตนซ์การเรียกใช้เครื่องมือต่างๆ ก็มีแนวโน้มที่จะพุ่งสูงขึ้น เช่น อินสแตนซ์การใช้งาน Synopsys Design Compiler มีแนวโน้มที่จะเติบโตอย่างมาก
จะมี agent จำนวนมากใช้เครื่องมือ floor planner เครื่องมือเลย์เอาต์ เครื่องมือตรวจสอบกฎการออกแบบ
วันนี้ เราถูกจำกัดด้วยจำนวนวิศวกร และพรุ่งนี้ วิศวกรเหล่านี้จะได้รับการสนับสนุนจาก agent จำนวนมาก เราจะสำรวจพื้นที่การออกแบบด้วยวิธีที่ไม่เคยมีมาก่อน เมื่อคุณใช้เครื่องมือเหล่านี้ในวันนี้ การเปลี่ยนแปลงนี้จะเห็นได้ชัดมาก
การใช้เครื่องมือจะขับเคลื่อนให้บริษัทซอฟต์แวร์เหล่านี้เติบโตอย่างรวดเร็ว สถานการณ์นี้ยังไม่เกิดขึ้นเพราะ agent ในปัจจุบันยังไม่เก่งพอในการใช้เครื่องมือ
ดังนั้น ไม่ว่าบริษัทเหล่านี้จะสร้าง agent เอง หรือ agent เองก็แข็งแกร่งพอที่จะใช้เครื่องมือเหล่านี้ ฉันเชื่อว่าสุดท้ายแล้วจะเป็นทั้งสองอย่างรวมกัน
Dwarkesh Patel
ฉันจำได้ว่าในการเปิดเผยล่าสุดของคุณ คุณมีข้อผูกมัดการจัดซื้อประมาณ 1 ล้านล้านดอลลาร์ในด้านส่วนประกอบขอบเขต หน่วยความจำ การแพ็คเกจ เป็นต้น และรายงานของ SemiAnalysis คาดว่าตัวเลขนี้อาจสูงถึง 2.5 ล้านล้านดอลลาร์
การตีความหนึ่งคือ คูน้ำของ Nvidia อยู่ที่คุณได้ล็อคอุปทานของส่วนประกอบที่หายากเหล่านี้ไว้หลายปีข้างหน้า นั่นคือ คนอื่นอาจสร้างตัวเร่งความเร็วได้ แต่พวกเขาจะได้หน่วยความจำเพียงพอหรือไม่? จะได้ชิปลอจิกเพียงพอหรือไม่?
นี่คือข้อได้เปรียบหลักของ Nvidia ในอีกไม่กี่ปีข้างหน้าหรือไม่?
Jensen Huang:
นี่คือสิ่งที่เราทำได้ แต่คนอื่นทำได้ยาก ส่วนหนึ่งที่เราสามารถให้คำมั่นสัญญาขนาดใหญ่ในต้นน้ำได้ เป็นสิ่งที่ชัดเจน นั่นคือข้อผูกมัดการจัดซื้อที่คุณพูดถึง อีกส่วนหนึ่งเป็นสิ่งที่ซ่อนอยู่
เช่น การลงทุนจำนวนมากในต้นน้ำนั้น จริงๆ แล้วทำโดยพันธมิตรในห่วงโซ่อุปทานของเรา เพราะฉันจะบอก CEO ของพวกเขาว่า: ให้ฉันบอกคุณว่าอุตสาหกรรมนี้จะใหญ่แค่ไหน ให้ฉันอธิบายว่าทำไมถึงเป็นเช่นนั้น ให้ฉันคิดไปกับคุณ ให้ฉันบอกคุณว่าฉันเห็นอะไร
ผ่านกระบวนการนี้ – การส่งผ่านข้อมูล การสร้างวิสัยทัศน์ การสร้างฉันทามติ – ฉันกำลังปรับแนวกับ CEO ในอุตสาหกรรมต่างๆ ในต้นน้ำ พวกเขาจึงยินดีที่จะทำการลงทุนเหล่านี้
แล้วทำไมพวกเขาถึงยินดีลงทุนให้ฉัน แทนที่จะให้คนอื่น? เพราะพวกเขารู้ว่าฉันมีความสามารถที่จะซื้อกำลังการผลิตของพวกเขาและดูดซับมันผ่านปลายน้ำของฉัน เนื่องจากความต้องการปลายน้ำและขนาดห่วงโซ่อุปทานของ Nvidia มีขนาดใหญ่ พวกเขาจึงยินดีที่จะลงทุนในต้นน้ำ
ดู GTC ขนาดของงานทำให้หลายคนประทับใจ โดยพื้นฐานแล้วมันคือจักรวาล AI 360 องศา ที่รวบรวมอุตสาหกรรมทั้งหมดไว้ด้วยกัน ทุกคนมารวมกันเพราะพวกเขาต้องการเห็นซึ่งกันและกัน ฉันรวบรวมพวกเขาไว้ด้วยกัน ให้ต้นน้ำเห็นปลายน้ำ ปลายน้ำเห็นต้นน้ำ และให้ทุกคนเห็นความก้าวหน้าของ AI
ที่สำคัญกว่านั้น พวกเขาสามารถเข้าถึงบริษัท Native AI และสตาร์ทอัพ เห็นนวัตกรรมต่างๆ ที่กำลังเกิดขึ้น จึงสามารถยืนยันการตัดสินของฉันด้วยตาของตนเอง
ดังนั้นฉันจึงใช้เวลามากในการอธิบายโอกาสที่อยู่ตรงหน้าต่อพันธมิตรในห่วงโซ่อุปทานและระบบนิเวศของเรา ทั้งทางตรงและทางอ้อม หลายคนจะพูดว่า keynote ของฉันไม่เหมือนกับการเปิดตัวผลิตภัณฑ์แบบดั้งเดิมที่ประกาศผลิตภัณฑ์ทีละชิ้น แต่บางส่วนฟังดูเหมือนกำลัง "สอนหนังสือ" และนี่คือจุดประสงค์ของฉันจริงๆ
ฉันต้องให้แน่ใจว่าห่วงโซ่อุปทานทั้งหมด – ไม่ว่าจะต้นน้ำหรือปลายน้ำ – เข้าใจ: อะไรจะเกิดขึ้นต่อไป ทำไมจึงเกิดขึ้น เมื่อไหร่จะเกิดขึ้น ขนาดจะใหญ่แค่ไหน และสามารถให้เหตุผลกับปัญหาเหล่านี้อย่างเป็นระบบได้เหมือนฉัน
ดังนั้น "คูน้ำ" แบบที่คุณพูดถึงนั้นมีอยู่จริง หากตลาดนี้มีขนาดถึงล้านล้านดอลลาร์ในอีกไม่กี่ปีข้างหน้า เรามีความสามารถที่จะสร้างห่วงโซ่อุปทานที่รองรับมัน เหมือนกับกระแสเงินสด ห


