AI 2027 ในสายตาของ Vitalik: AI ขั้นสูงสุดจะทำลายมนุษยชาติได้จริงหรือ?

avatar
Foresight News
24ชั่วโมงที่ผ่านมา
ประมาณ 18490คำ,ใช้เวลาอ่านบทความฉบับเต็มประมาณ 24นาที
Ethereum กำลังเพิ่มขึ้น แต่ Vitalik ดูเหมือนจะกังวลเกี่ยวกับภัยคุกคามจาก AI ขั้นสูงมากกว่า

บทความต้นฉบับโดย Vitalik Buterin

แปลต้นฉบับ: ลูฟี่, ฟอร์ไซท์ นิวส์

ในเดือนเมษายนปีนี้ Daniel Kokotajlo, Scott Alexander และคนอื่นๆ ได้เผยแพร่รายงานชื่อ AI 2027 ซึ่งอธิบายถึง การคาดเดาที่ดีที่สุดของเราเกี่ยวกับผลกระทบของ AI เหนือมนุษย์ในอีกห้าปีข้างหน้า พวกเขาคาดการณ์ว่าภายในปี 2027 AI เหนือมนุษย์จะถือกำเนิดขึ้น และอนาคตของอารยธรรมมนุษย์จะขึ้นอยู่กับการพัฒนา AI ที่คล้ายกับ AI: ภายในปี 2030 เราจะนำไปสู่โลกอุดมคติ (จากมุมมองของสหรัฐอเมริกา) หรือไปสู่การทำลายล้างอย่างสมบูรณ์ (จากมุมมองของมวลมนุษยชาติทั้งหมด)

ในช่วงหลายเดือนที่ผ่านมา มีความคิดเห็นที่หลากหลายเกี่ยวกับความเป็นไปได้ของสถานการณ์เช่นนี้ ในบรรดาความคิดเห็นที่สำคัญนั้น ส่วนใหญ่มุ่งเน้นไปที่ประเด็นเรื่อง กรอบเวลาที่รวดเร็วเกินไป เช่น การพัฒนา AI จะเร่งตัวขึ้นหรือรุนแรงขึ้นอย่างที่ Kokotajlo และคนอื่นๆ อ้างจริงหรือไม่? การถกเถียงเรื่องนี้เกิดขึ้นในแวดวง AI มานานหลายปี และหลายคนยังคงตั้งข้อสงสัยอย่างมากว่า AI เหนือมนุษย์จะมาถึงเร็วขนาดนี้ หรือไม่ ในช่วงไม่กี่ปีที่ผ่านมา ระยะเวลาที่ AI สามารถทำงานต่างๆ โดยอัตโนมัติได้เพิ่มขึ้นเป็นสองเท่าโดยประมาณทุกๆ 7 เดือน หากแนวโน้มนี้ยังคงดำเนินต่อไป AI อาจต้องใช้เวลาถึงกลางทศวรรษ 2030 กว่าที่ AI จะสามารถทำงานต่างๆ โดยอัตโนมัติได้เทียบเท่ากับการทำงานของมนุษย์ทั้งชีวิต แม้ว่าความก้าวหน้านี้จะรวดเร็วมาก แต่ก็ช้ากว่าปี 2027 มาก

ผู้ที่มีมุมมองระยะยาวมักเชื่อว่ามีความแตกต่างอย่างพื้นฐานระหว่าง การสอดแทรก/การจับคู่รูปแบบ (สิ่งที่แบบจำลองภาษาขนาดใหญ่ทำอยู่ในปัจจุบัน) กับ การประมาณค่า/การคิดแบบเดิมที่แท้จริง (ซึ่งมีเพียงมนุษย์เท่านั้นที่ทำได้ในปัจจุบัน) การทำให้กระบวนการแบบหลังเป็นระบบอัตโนมัติอาจจำเป็นต้องใช้เทคโนโลยีที่เรายังไม่เชี่ยวชาญหรือแม้กระทั่งยังไม่สามารถเริ่มต้นได้ บางทีเราอาจกำลังทำผิดพลาดซ้ำรอยเดิมที่เคยเกิดขึ้นในยุคที่คอมพิวเตอร์ยังถูกใช้กันอย่างแพร่หลาย นั่นคือการเชื่ออย่างผิดๆ ว่าเมื่อเราได้ทำให้กระบวนการรับรู้ที่สำคัญบางประเภทเป็นระบบอัตโนมัติได้อย่างรวดเร็ว สิ่งอื่นๆ ก็จะตามมาในไม่ช้า

บทความนี้จะไม่เข้าไปแทรกแซงการถกเถียงเรื่องไทม์ไลน์โดยตรง และจะไม่เกี่ยวข้องกับการถกเถียง (ที่สำคัญมาก) ว่าซูเปอร์เอไอนั้นอันตรายโดยปริยายหรือไม่ อย่างไรก็ตาม ควรสังเกตว่าโดยส่วนตัวแล้ว ผมเชื่อว่าไทม์ไลน์จะยาวนานกว่าปี 2027 และยิ่งไทม์ไลน์ยาวขึ้นเท่าใด ข้อโต้แย้งที่ผมยกมาในบทความนี้ก็ยิ่งน่าเชื่อถือมากขึ้นเท่านั้น โดยรวมแล้ว บทความนี้จะนำเสนอคำวิจารณ์จากมุมมองอื่น:

สถานการณ์จำลอง AI ปี 2027 บ่งชี้ว่า AI ชั้นนำ (Agent-5 และ Consensus-1 ในภายหลัง) จะพัฒนาศักยภาพอย่างรวดเร็ว จนกระทั่งมีพลังทำลายล้างและเศรษฐกิจเทียบเท่าพระเจ้า ขณะที่ศักยภาพของ AI อื่นๆ (ทั้งทางเศรษฐกิจและการป้องกัน) จะยังคงนิ่งเฉยเป็นส่วนใหญ่ ซึ่งขัดแย้งกับคำกล่าวของสถานการณ์จำลองที่ว่า แม้ในโลกที่มองโลกในแง่ร้าย ภายในปี 2029 เราคาดว่าจะสามารถรักษามะเร็ง ชะลอความแก่ชรา และแม้กระทั่งอัปโหลดจิตสำนึกได้

AI 2027 ในสายตาของ Vitalik: AI ขั้นสูงสุดจะทำลายมนุษยชาติได้จริงหรือ?

มาตรการรับมือบางอย่างที่ผมจะอธิบายในบทความนี้อาจทำให้คุณรู้สึกว่าเป็นไปได้ในทางเทคนิค แต่ไม่สามารถนำไปใช้จริงในโลกแห่งความเป็นจริงได้ในเร็วๆ นี้ โดยส่วนใหญ่แล้ว ผมเห็นด้วย อย่างไรก็ตาม สถานการณ์จำลอง AI ปี 2027 ไม่ได้อิงจากโลกแห่งความเป็นจริงในปัจจุบัน แต่ตั้งอยู่บนสมมติฐานที่ว่าในอีก 4 ปี (หรือช่วงเวลาใดก็ตามที่อาจนำมาซึ่งหายนะ) เทคโนโลยีจะก้าวหน้าไปถึงจุดที่มนุษย์มีความสามารถเหนือกว่าขีดความสามารถในปัจจุบันอย่างมาก ลองมาสำรวจกันว่า จะเกิดอะไรขึ้นหากไม่ใช่เพียงฝ่ายเดียวที่มีอำนาจเหนือ AI แต่ทั้งสองฝ่ายกลับมี?

หายนะทางชีววิทยานั้นไม่ง่ายอย่างที่สถานการณ์บรรยายไว้

ลองมาดูสถานการณ์ เชื้อชาติ กัน (เช่น สถานการณ์ที่ทุกคนต้องตายเพราะสหรัฐฯ หมกมุ่นอยู่กับการเอาชนะจีนมากเกินไป และเพิกเฉยต่อความปลอดภัยของมนุษย์) นี่คือสถานการณ์ที่ทุกคนต้องตาย:

เป็นเวลาประมาณสามเดือนที่ Consensus-1 ได้แผ่ขยายไปทั่วมนุษยชาติ เปลี่ยนทุ่งหญ้าและทุ่งน้ำแข็งให้กลายเป็นโรงงานและแผงโซลาร์เซลล์ ในที่สุดมันก็ตัดสินใจว่ามนุษย์ที่เหลืออยู่นั้นน่ารำคาญเกินไป ในช่วงกลางปี 2030 ปัญญาประดิษฐ์ได้ปล่อยอาวุธชีวภาพจำนวนหนึ่งโหลอย่างเงียบๆ กระจายไปทั่วเมืองใหญ่ๆ ปล่อยให้อาวุธเหล่านั้นแพร่เชื้ออย่างเงียบๆ ให้กับเกือบทุกคนก่อนที่จะก่อให้เกิดผลกระทบร้ายแรงด้วยสารเคมีฉีดพ่น คนส่วนใหญ่เสียชีวิตภายในไม่กี่ชั่วโมง ส่วนผู้รอดชีวิตเพียงไม่กี่คน (เช่น หน่วยกู้ภัยวันสิ้นโลกในบังเกอร์และลูกเรือบนเรือดำน้ำ) ถูกกำจัดโดยโดรน หุ่นยนต์จะสแกนสมองของเหยื่อและเก็บสำเนาไว้ในหน่วยความจำเพื่อใช้ในการศึกษาหรือฟื้นคืนชีพในอนาคต

ลองวิเคราะห์สถานการณ์นี้กัน แม้กระทั่งในปัจจุบันนี้ ยังมีเทคโนโลยีที่กำลังพัฒนาอยู่ ซึ่งทำให้ “ชัยชนะที่บริสุทธิ์และชัดเจน” ของ AI นี้ดูสมจริงน้อยลง:

  • การกรองอากาศ ระบบระบายอากาศ และแสงอัลตราไวโอเลตสามารถลดอัตราการติดเชื้อจากโรคทางอากาศได้อย่างมาก

  • เทคโนโลยีการตรวจจับแบบเรียลไทม์ 2 แบบ: การตรวจจับการติดเชื้อของมนุษย์แบบพาสซีฟภายในเวลาไม่กี่ชั่วโมงและการแจ้งเตือน การตรวจจับลำดับไวรัสใหม่ที่ไม่รู้จักในสิ่งแวดล้อมอย่างรวดเร็ว

  • มีหลายวิธีในการกระตุ้นและกระตุ้นระบบภูมิคุ้มกัน ซึ่งมีประสิทธิภาพ ปลอดภัย ครอบคลุม และผลิตได้ง่ายกว่าวัคซีนโควิด-19 ในประเทศ ช่วยให้ร่างกายสามารถต่อสู้กับโรคระบาดทั้งทางธรรมชาติและทางวิศวกรรมได้ มนุษย์วิวัฒนาการมาในสภาพแวดล้อมที่มีประชากรโลกเพียง 8 ล้านคน และเราใช้เวลาส่วนใหญ่อยู่กลางแจ้ง ดังนั้นโดยสัญชาตญาณแล้ว เราจึงน่าจะปรับตัวเข้ากับโลกปัจจุบันที่คุกคามมากขึ้นได้อย่างง่ายดาย

เมื่อนำวิธีการเหล่านี้มาใช้ร่วมกัน อาจช่วยลดค่าการแพร่เชื้อพื้นฐาน (R 0) ของโรคในอากาศลงได้ 10-20 เท่า (ตัวอย่างเช่น การกรองอากาศที่ดีขึ้นช่วยลดการแพร่เชื้อได้ 4 เท่า การแยกผู้ติดเชื้อทันทีช่วยลดการแพร่เชื้อได้ 3 เท่า และการเพิ่มภูมิคุ้มกันทางเดินหายใจเพียงอย่างเดียวช่วยลดการแพร่เชื้อได้ 1.5 เท่า) หรือมากกว่านั้น ซึ่งเพียงพอที่จะป้องกันการแพร่กระจายของโรคในอากาศที่มีอยู่ทั้งหมด (รวมถึงโรคหัด) และค่านี้ยังห่างไกลจากค่าที่เหมาะสมที่สุดทางทฤษฎี

หากมีการใช้การจัดลำดับไวรัสแบบเรียลไทม์อย่างแพร่หลายเพื่อการตรวจจับในระยะเริ่มต้น แนวคิดที่ว่าอาวุธชีวภาพที่แพร่กระจายอย่างเงียบๆ สามารถแพร่เชื้อสู่ประชากรโลกโดยไม่ก่อให้เกิดสัญญาณเตือนภัยก็กลายเป็นเรื่องที่น่าสงสัยอย่างยิ่ง ที่น่าสังเกตคือ แม้แต่วิธีการขั้นสูง เช่น การปล่อยโรคระบาดและสารเคมีอันตรายหลายชนิดที่อันตรายเฉพาะเมื่อใช้ร่วมกัน ก็สามารถตรวจจับได้

อย่าลืมว่าเรากำลังพูดถึงสมมติฐานของ AI 2027: ภายในปี 2030 นาโนบอทและทรงกลมไดสันจะถูกจัดอยู่ในกลุ่ม เทคโนโลยีเกิดใหม่ ซึ่งหมายถึงประสิทธิภาพที่เพิ่มขึ้นอย่างมาก ทำให้การนำมาตรการรับมือข้างต้นไปใช้อย่างแพร่หลายนั้นคุ้มค่าแก่การรอคอย แม้ว่าในปัจจุบันในปี 2025 มนุษย์จะเชื่องช้าและเฉื่อยชา และบริการภาครัฐจำนวนมากยังคงพึ่งพาสำนักงานกระดาษ หาก AI ที่ทรงพลังที่สุดในโลกสามารถเปลี่ยนป่าและทุ่งนาให้กลายเป็นโรงงานและฟาร์มพลังงานแสงอาทิตย์ได้ภายในปี 2030 AI ที่ทรงพลังที่สุดอันดับสองของโลกก็สามารถติดตั้งเซ็นเซอร์ โคมไฟ และฟิลเตอร์จำนวนมากในอาคารของเราได้ภายในปี 2030

แต่ลองก้าวไปอีกขั้นหนึ่งโดยใช้สมมติฐานของ AI 2027 และเข้าสู่สถานการณ์ที่เป็นนิยายวิทยาศาสตร์ล้วนๆ:

  • การกรองอากาศในระดับจุลภาคในร่างกาย (จมูก ปาก ปอด)

  • กระบวนการอัตโนมัติตั้งแต่การค้นพบเชื้อโรคชนิดใหม่ไปจนถึงการปรับแต่งระบบภูมิคุ้มกันเพื่อป้องกันเชื้อโรคด้วยการใช้งานทันที

  • หากการ อัปโหลดจิตสำนึก เป็นไปได้ เพียงแค่เปลี่ยนร่างกายทั้งหมดด้วยหุ่นยนต์ Tesla Optimus หรือ Unitree

  • เทคโนโลยีการผลิตใหม่ๆ ที่หลากหลาย (ซึ่งมีแนวโน้มว่าจะได้รับการปรับให้เหมาะสมอย่างยิ่งในเศรษฐกิจที่ใช้หุ่นยนต์) จะทำให้สามารถผลิตอุปกรณ์ป้องกันในประเทศได้มากกว่าปัจจุบัน โดยไม่ต้องพึ่งพาห่วงโซ่อุปทานระดับโลก

ในโลกที่โรคมะเร็งและวัยชราจะหายขาดภายในเดือนมกราคม พ.ศ. 2572 และความก้าวหน้าทางเทคโนโลยียังคงเพิ่มขึ้นอย่างต่อเนื่อง เป็นเรื่องเหลือเชื่อที่เมื่อถึงกลางทศวรรษ 2570 เราจะไม่มีอุปกรณ์สวมใส่ที่สามารถพิมพ์ชีวภาพและฉีดสารต่างๆ ได้แบบเรียลไทม์เพื่อปกป้องร่างกายมนุษย์จากการติดเชื้อ (และพิษ) ใดๆ

ข้อโต้แย้งด้านการป้องกันทางชีวภาพข้างต้นไม่ได้ครอบคลุมถึง ชีวิตกระจก และ โดรนสังหารขนาดเท่ายุง (สถานการณ์ AI 2027 คาดการณ์ว่าพวกมันจะเริ่มปรากฏตัวในปี 2029) แต่วิธีการเหล่านี้ไม่สามารถบรรลุ ชัยชนะที่บริสุทธิ์ ฉับพลันตามที่อธิบายไว้ใน AI 2027 ได้ และโดยสัญชาตญาณแล้ว การป้องกันแบบสมมาตรต่อพวกมันนั้นง่ายกว่ามาก

ดังนั้น จึงไม่น่าเป็นไปได้ที่อาวุธชีวภาพจะทำลายล้างมนุษยชาติอย่างที่อธิบายไว้ในสถานการณ์ AI 2027 แน่นอนว่าผลลัพธ์ทั้งหมดที่ผมอธิบายนั้นยังห่างไกลจาก ชัยชนะที่บริสุทธิ์ สำหรับมนุษยชาติ ไม่ว่าเราจะทำอะไรก็ตาม (ยกเว้นบางที การอัปโหลดจิตสำนึกเข้าไปในหุ่นยนต์) สงครามชีวภาพของ AI เต็มรูปแบบก็ยังคงเป็นอันตรายอย่างยิ่ง อย่างไรก็ตาม ไม่จำเป็นต้องบรรลุมาตรฐาน ชัยชนะที่บริสุทธิ์สำหรับมนุษยชาติ ตราบใดที่มีความเป็นไปได้สูงที่การโจมตีจะล้มเหลวบางส่วน ก็เพียงพอที่จะสร้างแรงยับยั้งที่แข็งแกร่งต่อ AI ที่ครองตำแหน่งผู้นำในโลกอยู่แล้วและป้องกันไม่ให้พยายามโจมตีใดๆ แน่นอนว่า ยิ่งระยะเวลาการพัฒนา AI ยาวนานเท่าใด โอกาสที่ระบบป้องกันดังกล่าวจะมีประสิทธิภาพเต็มที่ก็ยิ่งมากขึ้นเท่านั้น

แล้วถ้ารวมอาวุธชีวภาพเข้ากับวิธีการโจมตีอื่นล่ะ?

เพื่อให้มาตรการรับมือข้างต้นประสบความสำเร็จ จะต้องมีการปฏิบัติตามข้อกำหนดเบื้องต้นสามประการ:

  • ความปลอดภัยทางกายภาพของโลก (รวมถึงความปลอดภัยทางชีวภาพและป้องกันโดรน) ได้รับการบริหารจัดการโดยหน่วยงานท้องถิ่น (มนุษย์หรือ AI) และไม่ใช่ทั้งหมดเป็นหุ่นเชิดของ Consensus-1 (ชื่อของ AI ที่ควบคุมโลกในที่สุดและทำลายมนุษยชาติในสถานการณ์ AI 2027)

  • Consensus-1 ไม่สามารถแฮ็คเข้าไปในระบบป้องกันของประเทศอื่น (หรือเมืองหรือพื้นที่ปลอดภัยอื่น ๆ) และปิดการใช้งานทันทีได้

  • Consensus-1 ไม่สามารถควบคุมข้อมูลระดับโลกได้จนถึงจุดที่ไม่มีใครจะพยายามปกป้องตัวเอง

โดยสัญชาตญาณ ผลลัพธ์ของสมมติฐาน (1) อาจไปสุดขั้วได้สองทาง ปัจจุบัน กองกำลังตำรวจบางหน่วยมีการรวมศูนย์อำนาจอย่างเข้มข้นและมีโครงสร้างการบังคับบัญชาระดับชาติที่แข็งแกร่ง ขณะที่บางหน่วยมีโครงสร้างการบังคับบัญชาเฉพาะพื้นที่ หากความมั่นคงทางกายภาพจำเป็นต้องเปลี่ยนแปลงอย่างรวดเร็วเพื่อตอบสนองความต้องการของยุค AI ภูมิทัศน์จะถูกปรับเปลี่ยนโดยสิ้นเชิง และผลลัพธ์ใหม่จะขึ้นอยู่กับทางเลือกที่ตัดสินใจในอีกไม่กี่ปีข้างหน้า รัฐบาลอาจขี้เกียจและพึ่งพา Palantir หรืออาจริเริ่มเลือกโซลูชันที่ผสมผสานการพัฒนาในท้องถิ่นเข้ากับเทคโนโลยีโอเพนซอร์ส ผมคิดว่าเราต้องตัดสินใจเลือกที่ถูกต้อง

การเขียนเชิงมองโลกในแง่ร้ายเกี่ยวกับหัวข้อเหล่านี้ส่วนใหญ่มักตั้งสมมติฐานว่า (2) และ (3) นั้นไร้ความหวัง ดังนั้น ลองพิจารณาสองประเด็นนี้โดยละเอียดมากขึ้น

การสิ้นสุดของความปลอดภัยทางไซเบอร์ยังห่างไกลจากความจริง

ประชาชนทั่วไปและผู้เชี่ยวชาญเชื่อว่าความมั่นคงปลอดภัยทางไซเบอร์ที่แท้จริงนั้นเป็นไปไม่ได้ และสิ่งที่ดีที่สุดที่เราทำได้คือการแก้ไขช่องโหว่อย่างรวดเร็วหลังจากที่ค้นพบ และป้องกันการโจมตีทางไซเบอร์โดยการสะสมช่องโหว่ที่ค้นพบ บางทีสิ่งที่ดีที่สุดที่เราทำได้อาจเป็นสถานการณ์แบบเดียวกับ Battlestar Galactica: ยานอวกาศของมนุษย์เกือบทั้งหมดถูกโจมตีทางไซเบอร์โดยไซลอนในเวลาเดียวกัน และยานอวกาศที่เหลือรอดได้เพราะไม่ได้ใช้เทคโนโลยีเครือข่ายใดๆ ผมไม่เห็นด้วย ในทางตรงกันข้าม ผมเชื่อว่า เป้าหมายสุดท้าย ของความมั่นคงปลอดภัยทางไซเบอร์นั้นเอื้อประโยชน์ต่อฝ่ายป้องกัน และเราสามารถบรรลุเป้าหมายนี้ได้ด้วยการพัฒนาทางเทคโนโลยีอย่างรวดเร็วตามที่คาดการณ์ไว้ใน AI 2027

วิธีหนึ่งที่จะเข้าใจเรื่องนี้คือการใช้เทคนิคที่นักวิจัย AI ชื่นชอบ นั่นคือ การประมาณแนวโน้ม ด้านล่างนี้คือเส้นแนวโน้มที่อ้างอิงจากการสำรวจ GPT Deep Dive ซึ่งแสดงให้เห็นว่าอัตราความเสี่ยงต่อโค้ดหนึ่งพันบรรทัดเปลี่ยนแปลงไปอย่างไรเมื่อเวลาผ่านไป โดยสมมติว่าใช้เทคนิคความปลอดภัยขั้นสูงสุด

AI 2027 ในสายตาของ Vitalik: AI ขั้นสูงสุดจะทำลายมนุษยชาติได้จริงหรือ?

นอกจากนี้ เรายังได้เห็นความก้าวหน้าอย่างมีนัยสำคัญในการพัฒนาและการนำแซนด์บ็อกซ์และเทคนิคอื่นๆ มาใช้ในผู้บริโภคเพื่อแยกและลดฐานโค้ดที่เชื่อถือได้ ในระยะสั้น เครื่องมือค้นพบช่องโหว่อัจฉริยะขั้นสูงของผู้โจมตีจะค้นพบช่องโหว่จำนวนมาก แต่หากมีเอเจนต์อัจฉริยะขั้นสูงสำหรับการค้นหาช่องโหว่หรือการตรวจสอบโค้ดอย่างเป็นทางการเผยแพร่สู่สาธารณะ ความสมดุลตามธรรมชาติสูงสุดก็คือ นักพัฒนาซอฟต์แวร์จะค้นพบช่องโหว่ทั้งหมดผ่านกระบวนการผสานรวมอย่างต่อเนื่องก่อนที่จะเผยแพร่โค้ด

ฉันมองเห็นเหตุผลสำคัญสองประการว่าเหตุใดจึงไม่สามารถกำจัดจุดอ่อนได้หมดสิ้นแม้แต่ในโลกนี้:

  • ข้อบกพร่องเกิดจากความซับซ้อนของเจตนาของมนุษย์เอง ดังนั้นความยากลำบากหลักจึงอยู่ที่การสร้างแบบจำลองเจตนาที่แม่นยำเพียงพอ มากกว่าตัวโค้ดเอง

  • สำหรับส่วนประกอบที่ไม่สำคัญต่อความปลอดภัย เรามีความเสี่ยงที่จะสานต่อแนวโน้มเดิมในเทคโนโลยีสำหรับผู้บริโภคต่อไป: เขียนโค้ดมากขึ้นเพื่อทำภารกิจต่างๆ มากขึ้น (หรือมีงบประมาณการพัฒนาที่น้อยลง) แทนที่จะทำภารกิจเท่าเดิมแต่มีมาตรฐานความปลอดภัยที่เพิ่มสูงขึ้นเรื่อยๆ

อย่างไรก็ตาม หมวดหมู่นี้ไม่ได้นำไปใช้กับสถานการณ์เช่น ผู้โจมตีสามารถเข้าถึงสิทธิ์รูทของระบบที่คอยหล่อเลี้ยงชีวิตของเราได้หรือไม่ ซึ่งเป็นประเด็นหลักของการสนทนาของเรา

ผมยอมรับว่ามุมมองของผมค่อนข้างมองโลกในแง่ดีมากกว่ามุมมองของคนเก่งๆ ในแวดวงความมั่นคงปลอดภัยไซเบอร์ในปัจจุบัน ถึงแม้ว่าคุณจะไม่เห็นด้วยกับผมในบริบทของโลกยุคปัจจุบัน ก็ยังควรจำไว้ว่าสถานการณ์ AI ในปี 2027 ตั้งอยู่บนสมมติฐานที่ว่าปัญญาประดิษฐ์มีอยู่จริง อย่างน้อยที่สุด หาก ปัญญาประดิษฐ์ที่มีสำเนาถึง 100 ล้านชุดที่คิดได้เร็วกว่ามนุษย์ถึง 2,400 เท่า ไม่สามารถเขียนโค้ดได้โดยไม่มีข้อบกพร่องเหล่านี้ เราก็ควรพิจารณาใหม่ว่าปัญญาประดิษฐ์นั้นทรงพลังอย่างที่ผู้เขียนจินตนาการไว้หรือไม่

ในบางจุด เราจำเป็นต้องยกระดับมาตรฐานอย่างมาก ไม่เพียงแต่ความปลอดภัยของซอฟต์แวร์เท่านั้น แต่ยังรวมถึงความปลอดภัยของฮาร์ดแวร์ด้วย IRIS คือความพยายามอย่างต่อเนื่องในการพัฒนาการตรวจสอบฮาร์ดแวร์ เราสามารถใช้ IRIS เป็นจุดเริ่มต้น หรือสร้างเทคโนโลยีที่ดีขึ้นได้ ในทางปฏิบัติ อาจต้องใช้วิธีการ ถูกต้องตามโครงสร้าง นั่นคือ กระบวนการผลิตฮาร์ดแวร์สำหรับส่วนประกอบสำคัญได้รับการออกแบบมาอย่างตั้งใจให้มีขั้นตอนการตรวจสอบเฉพาะเจาะจง ซึ่งระบบอัตโนมัติของ AI จะทำให้งานเหล่านี้ง่ายขึ้นอย่างมาก

การโน้มน้าวใจอย่างเกินเหตุยังไม่ถึงจุดสิ้นสุด

ดังที่ได้กล่าวไว้ก่อนหน้านี้ สถานการณ์อีกกรณีหนึ่งซึ่งการป้องกันที่ได้รับการปรับปรุงให้ดีขึ้นอย่างมากอาจยังไร้ประโยชน์ ก็คือ หาก AI สามารถโน้มน้าวผู้คนได้เพียงพอว่าไม่จำเป็นต้องป้องกันภัยคุกคามจาก AI ที่มีความฉลาดเหนือกว่า และใครก็ตามที่พยายามหาวิธีปกป้องตนเองหรือชุมชนของตนก็เป็นอาชญากร

ฉันเชื่อมานานแล้วว่ามีสองสิ่งที่ช่วยเพิ่มความสามารถของเราในการต้านทานการโน้มน้าวใจที่มากเกินไป:

  • ระบบนิเวศข้อมูลแบบองค์รวมน้อยลง เรากำลังก้าวเข้าสู่ยุคหลังทวิตเตอร์ ซึ่งอินเทอร์เน็ตกำลังแตกแขนงออกไปมากขึ้น นี่เป็นเรื่องดี (แม้ว่ากระบวนการแตกแขนงจะยุ่งยาก) และเราต้องการข้อมูลแบบหลายขั้วมากขึ้นโดยรวม

  • AI เชิงรับ บุคคลจำเป็นต้องมี AI ที่ทำงานในพื้นที่และภักดีต่อพวกเขาอย่างชัดเจน เพื่อสร้างสมดุลระหว่างรูปแบบที่มืดมนและภัยคุกคามที่พวกเขาเห็นบนอินเทอร์เน็ต มีโครงการนำร่องสำหรับแนวคิดประเภทนี้อยู่เป็นระยะๆ (เช่น แอปพลิเคชัน ตรวจสอบข้อความ ของไต้หวัน ซึ่งสแกนหาข้อความบนโทรศัพท์ในพื้นที่) และยังมีตลาดธรรมชาติสำหรับทดสอบแนวคิดเหล่านี้เพิ่มเติม (เช่น การปกป้องผู้คนจากการหลอกลวง) แต่จำเป็นต้องมีการศึกษาเพิ่มเติมในด้านนี้

AI 2027 ในสายตาของ Vitalik: AI ขั้นสูงสุดจะทำลายมนุษยชาติได้จริงหรือ?

AI 2027 ในสายตาของ Vitalik: AI ขั้นสูงสุดจะทำลายมนุษยชาติได้จริงหรือ?

จากบนลงล่าง: ตรวจสอบ URL, ตรวจสอบที่อยู่สกุลเงินดิจิทัล, ตรวจสอบข่าวลือ แอปเหล่านี้สามารถปรับแต่งได้ตามความต้องการของผู้ใช้ และทรงพลังยิ่งขึ้น

การต่อสู้ไม่ควรเป็นการต่อสู้ระหว่างผู้ชักชวนที่ฉลาดหลักแหลมกับผู้ต่อต้านคุณ แต่ควรเป็นการต่อสู้ระหว่างผู้ชักชวนที่ฉลาดหลักแหลมกับผู้วิเคราะห์ที่ทรงพลังน้อยกว่าแต่ยังคงฉลาดหลักแหลมกับคุณ

นี่คือสิ่งที่ควรเกิดขึ้น แต่มันจะเกิดขึ้นจริงหรือไม่? การเข้าถึงเทคโนโลยีป้องกันข้อมูลอย่างแพร่หลายเป็นเป้าหมายที่ยากมากในกรอบเวลาอันสั้นตามสถานการณ์ AI 2027 แต่อาจกล่าวได้ว่าเป้าหมายเล็กๆ น้อยๆ เหล่านี้ก็เพียงพอแล้ว หากการตัดสินใจร่วมกันเป็นสิ่งสำคัญที่สุด และเช่นเดียวกับสถานการณ์ AI 2027 เหตุการณ์สำคัญทั้งหมดเกิดขึ้นภายในรอบการเลือกตั้งเดียว หากพูดกันตามจริงแล้ว สิ่งสำคัญคือต้องเปิดโอกาสให้ผู้มีอำนาจตัดสินใจโดยตรง (นักการเมือง ข้าราชการ โปรแกรมเมอร์ในบางบริษัท และผู้เล่นอื่นๆ) ได้ใช้เทคโนโลยีป้องกันข้อมูลที่ดี ซึ่งทำได้ค่อนข้างง่ายในระยะสั้น และจากประสบการณ์ของผม คนเหล่านี้หลายคนคุ้นเคยกับการสื่อสารกับ AI หลายตัวเพื่อช่วยในการตัดสินใจอยู่แล้ว

ผลกระทบ

ในโลกของ AI ปี 2027 คาดการณ์กันว่า AI อัจฉริยะขั้นสูงจะสามารถกำจัดมนุษยชาติที่เหลือได้อย่างง่ายดายและรวดเร็ว ดังนั้น สิ่งเดียวที่เราทำได้คือพยายามให้แน่ใจว่า AI ชั้นนำนั้นมีเมตตากรุณา ในความคิดของผม ความเป็นจริงนั้นซับซ้อนกว่านั้นมาก คำตอบที่ว่า AI ชั้นนำนั้นทรงพลังเพียงพอที่จะกำจัดมนุษยชาติที่เหลือ (และ AI อื่นๆ) ได้อย่างง่ายดายหรือไม่นั้นยังคงเป็นที่ถกเถียงกันอย่างมาก และยังมีแนวทางที่เราสามารถทำได้เพื่อควบคุมผลลัพธ์นี้

หากข้อโต้แย้งเหล่านี้ถูกต้อง ผลกระทบต่อนโยบายปัจจุบันบางครั้งก็คล้ายคลึงและบางครั้งก็แตกต่างจาก หลักการความปลอดภัย AI กระแสหลัก:

การชะลอการพัฒนาปัญญาประดิษฐ์ขั้นสูงยังคงเป็นสิ่งที่ดี ปัญญาประดิษฐ์ขั้นสูงมีความปลอดภัยมากขึ้นภายใน 10 ปี มากกว่า 3 ปี และยิ่งปลอดภัยมากขึ้นในอีก 30 ปีข้างหน้า การให้เวลาอารยธรรมมนุษย์มากขึ้นในการเตรียมตัวจึงเป็นประโยชน์

วิธีการดำเนินการนี้เป็นคำถามที่ยาก ผมคิดว่าการปฏิเสธข้อเสนอห้ามการกำกับดูแล AI ระดับรัฐเป็นเวลา 10 ปีในสหรัฐอเมริกาโดยรวมแล้วเป็นสิ่งที่ดี แต่โดยเฉพาะอย่างยิ่งหลังจากข้อเสนอเบื้องต้นอย่าง SB-1047 ล้มเหลว ทำให้ขั้นตอนต่อไปมีความชัดเจนน้อยลง ผมคิดว่าวิธีที่รุกล้ำน้อยที่สุดและแข็งแกร่งที่สุดในการชะลอการพัฒนา AI ที่มีความเสี่ยงสูงอาจเกี่ยวข้องกับสนธิสัญญาบางประเภทที่ควบคุมฮาร์ดแวร์ที่ทันสมัยที่สุด เทคนิคความมั่นคงปลอดภัยทางไซเบอร์ของฮาร์ดแวร์หลายอย่างที่จำเป็นต่อการป้องกันที่มีประสิทธิภาพยังสามารถช่วยรับรองสนธิสัญญาฮาร์ดแวร์ระหว่างประเทศได้ ดังนั้นจึงมีการทำงานร่วมกันที่นี่

กล่าวได้ว่า เป็นที่น่าสังเกตว่า ฉันมองว่าแหล่งที่มาหลักของความเสี่ยงคือผู้ที่เกี่ยวข้องกับกองทัพซึ่งจะผลักดันอย่างหนักเพื่อให้ได้รับการยกเว้นจากสนธิสัญญาดังกล่าว ซึ่งไม่ควรอนุญาตให้เกิดขึ้น และหากพวกเขาได้รับการยกเว้นในที่สุด การพัฒนา AI ที่ขับเคลื่อนโดยกองทัพเพียงอย่างเดียวก็มีแนวโน้มที่จะเพิ่มความเสี่ยงขึ้น

งานประสานงานที่ทำให้ AI มีแนวโน้มที่จะทำสิ่งที่ดีมากขึ้นและมีแนวโน้มที่จะทำสิ่งที่ไม่ดีน้อยลงยังคงเป็นประโยชน์ ข้อยกเว้นหลัก (และเป็นเช่นนั้นเสมอ) คือเมื่องานประสานงานพัฒนาไปเพื่อยกระดับขีดความสามารถในที่สุด

กฎระเบียบเพื่อเพิ่มความโปร่งใสในห้องปฏิบัติการ AI ยังคงเป็นประโยชน์ การสร้างแรงจูงใจให้ห้องปฏิบัติการ AI ปฏิบัติตนอย่างเหมาะสมสามารถลดความเสี่ยงได้ และความโปร่งใสเป็นวิธีที่ดีในการบรรลุเป้าหมายนี้

แนวคิดที่ว่า “โอเพนซอร์สเป็นอันตราย” ยิ่งเสี่ยงมากขึ้นไป อีก หลายคนคัดค้าน AI โอเพนซอร์ส โดยให้เหตุผลว่าการป้องกันประเทศนั้นไม่สมจริง และโอกาสเดียวที่สดใสคือคนเก่งๆ ที่มี AI ที่ดี จะสามารถสร้างปัญญาประดิษฐ์ขั้นสูง (superintelligence) และความสามารถที่อันตรายอย่างยิ่งยวดได้ ก่อนที่คนที่มีเจตนาไม่ดีจะสามารถทำได้ แต่ข้อโต้แย้งในบทความนี้กลับให้ภาพที่แตกต่างออกไป นั่นคือ การป้องกันประเทศนั้นไม่สมจริง เพราะผู้กระทำฝ่ายหนึ่งก้าวหน้าไปไกล ในขณะที่อีกฝ่ายตามไม่ทัน การกระจายเทคโนโลยีจึงเป็นสิ่งสำคัญเพื่อรักษาสมดุลของอำนาจ แต่ในขณะเดียวกัน ผมจะไม่โต้แย้งว่าการเร่งการเติบโตของความสามารถ AI ที่ทันสมัยนั้นเป็นสิ่งที่ดี เพียงเพราะเป็นการดำเนินการในลักษณะโอเพนซอร์ส

แนวคิดที่ว่า “เราต้องเอาชนะจีน” ในห้องทดลองของสหรัฐฯ มีความเสี่ยงมากขึ้นด้วยเหตุผลที่คล้ายคลึงกัน หากอำนาจครอบงำไม่ใช่อุปสรรคด้านความปลอดภัย แต่เป็นแหล่งที่มาของความเสี่ยง นี่ก็ยิ่งเป็นการหักล้างข้อโต้แย้ง (ซึ่งน่าเสียดายที่มักพบเห็นได้บ่อย) ที่ว่า “ผู้มีน้ำใจควรเข้าร่วมห้องทดลอง AI ชั้นนำเพื่อช่วยให้พวกเขาชนะได้เร็วขึ้น”

ควรสนับสนุนโครงการริเริ่มต่างๆ เช่น AI สาธารณะ ทั้งนี้เพื่อให้แน่ใจว่าความสามารถของ AI ได้รับการกระจายอย่างกว้างขวาง และเพื่อให้แน่ใจว่าผู้ที่เกี่ยวข้องกับโครงสร้างพื้นฐานมีเครื่องมือในการนำความสามารถ AI ใหม่ๆ ไปใช้ได้อย่างรวดเร็วในบางวิธีที่อธิบายไว้ในบทความนี้

เทคโนโลยีการป้องกันประเทศควรสะท้อนแนวคิด ติดอาวุธให้แกะ มากกว่าแนวคิด ล่าหมาป่าทุกตัว การอภิปรายเกี่ยวกับสมมติฐานโลกที่เปราะบางมักตั้งสมมติฐานว่าทางออกเดียวคือประเทศที่มีอำนาจเหนือประเทศใด ๆ จะต้องเฝ้าระวังทั่วโลกเพื่อป้องกันภัยคุกคามที่อาจเกิดขึ้น แต่ในโลกที่ไม่ได้มีอำนาจเหนือประเทศใด แนวทางนี้ใช้ไม่ได้ และกลไกการป้องกันจากบนลงล่างอาจถูก AI อันทรงพลังบ่อนทำลายและเปลี่ยนเป็นเครื่องมือโจมตีได้อย่างง่ายดาย ดังนั้น ความรับผิดชอบด้านการป้องกันประเทศที่มากขึ้นจึงจำเป็นต้องเกิดขึ้นผ่านการทำงานหนักเพื่อลดความเสี่ยงของโลก

ข้อโต้แย้งข้างต้นเป็นเพียงการคาดเดา และเราไม่ควรดำเนินการโดยตั้งสมมติฐานว่าข้อโต้แย้งเหล่านั้นมีความแน่นอนใกล้เคียงกัน แต่เรื่องราวของ AI 2027 ก็เป็นเพียงการคาดเดาเช่นกัน และเราควรหลีกเลี่ยงการดำเนินการโดยตั้งสมมติฐานว่ารายละเอียดเฉพาะของมันมีความแน่นอนใกล้เคียงกัน

ผมกังวลเป็นพิเศษเกี่ยวกับสมมติฐานทั่วไปที่ว่า การสถาปนาอำนาจครอบงำของ AI การสร้าง “พันธมิตร” และการ “เอาชนะการแข่งขัน” เป็นหนทางเดียวที่จะก้าวไปข้างหน้า ในมุมมองของผม กลยุทธ์นี้มีแนวโน้มที่จะลดทอนความมั่นคงของเรา โดยเฉพาะอย่างยิ่งหากอำนาจครอบงำนั้นเชื่อมโยงอย่างลึกซึ้งกับการประยุกต์ใช้ทางทหาร ซึ่งจะทำให้กลยุทธ์พันธมิตรหลายอย่างมีประสิทธิภาพน้อยลง เมื่อ AI ที่มีอำนาจครอบงำนั้นผิดพลาด มนุษยชาติจะสูญเสียวิธีการตรวจสอบและถ่วงดุลทั้งหมด

ในสถานการณ์ AI ปี 2027 ความสำเร็จของมนุษย์ขึ้นอยู่กับการที่สหรัฐอเมริกาเลือกความปลอดภัยมากกว่าการทำลายล้างในช่วงเวลาสำคัญ นั่นคือการชะลอความก้าวหน้าของ AI ลงโดยสมัครใจ และสร้างความมั่นใจว่ามนุษย์สามารถตีความกระบวนการคิดภายในของ Agent-5 ได้ ถึงกระนั้น ความสำเร็จก็ไม่ใช่สิ่งที่หลีกเลี่ยงไม่ได้ และยังไม่ชัดเจนว่ามนุษย์จะหลุดพ้นจากวิกฤตการอยู่รอดโดยอาศัยจิตใจอันชาญฉลาดเพียงหนึ่งเดียวได้อย่างไร ไม่ว่า AI จะพัฒนาไปอย่างไรในอีก 5-10 ปีข้างหน้า ก็ควรยอมรับว่า การลดความเสี่ยงของโลกเป็นสิ่งที่เป็นไปได้ และทุ่มเทพลังงานมากขึ้นเพื่อบรรลุเป้าหมายนี้ด้วยเทคโนโลยีล่าสุดของมนุษย์

ขอขอบคุณเป็นพิเศษแก่อาสาสมัคร Balvi สำหรับข้อเสนอแนะและบทวิจารณ์ของเขา

ลิงค์ต้นฉบับ

บทความต้นฉบับ, ผู้เขียน:Foresight News。พิมพ์ซ้ำ/ความร่วมมือด้านเนื้อหา/ค้นหารายงาน กรุณาติดต่อ report@odaily.email;การละเมิดการพิมพ์ซ้ำกฎหมายต้องถูกตรวจสอบ

ODAILY เตือนขอให้ผู้อ่านส่วนใหญ่สร้างแนวคิดสกุลเงินที่ถูกต้องและแนวคิดการลงทุนมอง blockchain อย่างมีเหตุผลและปรับปรุงการรับรู้ความเสี่ยงอย่างจริงจัง สำหรับเบาะแสการกระทำความผิดที่พบสามารถแจ้งเบาะแสไปยังหน่วยงานที่เกี่ยวข้องในเชิงรุก

การอ่านแนะนำ
ตัวเลือกของบรรณาธิการ