คำเตือนความเสี่ยง: ระวังความเสี่ยงจากการระดมทุนที่ผิดกฎหมายในนาม 'สกุลเงินเสมือน' 'บล็อกเชน' — จากห้าหน่วยงานรวมถึงคณะกรรมการกำกับดูแลการธนาคารและการประกันภัย
ข่าวสาร
ค้นพบ
ค้นหา
เข้าสู่ระบบ
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt
BTC
ETH
HTX
SOL
BNB
ดูตลาด
a16z: จะตรวจสอบอัลกอริทึมการเรียนรู้ของเครื่องบนห่วงโซ่ผ่านการพิสูจน์ความรู้เป็นศูนย์ได้
DeFi之道
特邀专栏作者
2023-04-07 10:30
บทความนี้มีประมาณ 5345 คำ การอ่านทั้งหมดใช้เวลาประมาณ 8 นาที
เรายังอยู่ในช่วงเริ่มต้นของการตรวจสอบการคำนวณโดยใช้การพิสูจน์ความรู้แบบไม่มีศูนย์บนเ

ชื่อเดิม:Checks and balances: Machine learning and zero-knowledge proofs

ชื่อเดิม:

ผู้แต่งต้นฉบับ: Elena Burger, a16z

รวบรวมข้อความต้นฉบับ: The Way of DeFi

ในช่วงไม่กี่ปีที่ผ่านมา การพิสูจน์ความรู้ที่ไม่มีศูนย์บนบล็อกเชนถูกนำมาใช้เพื่อวัตถุประสงค์หลักสองประการ: (1) เพื่อปรับขนาดเครือข่ายที่มีข้อจำกัดด้านการคำนวณโดยการประมวลผลธุรกรรมนอกเครือข่ายและตรวจสอบผลลัพธ์บน mainnet (2) ปกป้องความเป็นส่วนตัวของผู้ใช้โดย การใช้ธุรกรรมที่มีการป้องกันซึ่งผู้ที่มีคีย์ถอดรหัสเท่านั้นที่สามารถดูได้ คุณสมบัติเหล่านี้เป็นที่ต้องการอย่างชัดเจนในบริบทของบล็อกเชน: เครือข่ายแบบกระจายศูนย์ เช่น Ethereum ไม่สามารถเพิ่มปริมาณงานหรือขนาดบล็อกโดยไม่กำหนดความต้องการที่ยอมรับไม่ได้เกี่ยวกับพลังการประมวลผล แบนด์วิธ และเวลาแฝงของเครื่องมือตรวจสอบความถูกต้อง (ดังนั้น ความจำเป็นในการม้วนความถูกต้อง) ธุรกรรมทั้งหมดจะมองเห็นได้ ทุกคน (ดังนั้นจึงจำเป็นต้องมีโซลูชันความเป็นส่วนตัวแบบออนไลน์)

แต่การพิสูจน์ความรู้ที่ไม่มีความรู้ยังมีประโยชน์สำหรับฟังก์ชันระดับที่สาม: การตรวจสอบอย่างมีประสิทธิภาพว่าการคำนวณประเภทใด ๆ (ไม่ใช่แค่การคำนวณใน EVM ที่สร้างอินสแตนซ์ออฟเชน) ทำงานได้อย่างถูกต้อง สิ่งนี้มีนัยยะสำคัญสำหรับพื้นที่นอกบล็อกเชนเช่นกัน

ปัจจุบัน ความก้าวหน้าในระบบที่ใช้ประโยชน์จากการพิสูจน์ความรู้เป็นศูนย์เพื่อตรวจสอบกำลังการประมวลผลอย่างรวบรัดทำให้ผู้ใช้ต้องการการตรวจสอบที่ไร้ความน่าเชื่อถือและตรวจสอบได้ในระดับเดียวกับที่บล็อกเชนรับประกันจากผลิตภัณฑ์ดิจิทัลทุกชิ้น โดยเฉพาะจากโมเดลการเรียนรู้ของเครื่อง ความต้องการสูงสำหรับการประมวลผลแบบบล็อกเชนได้กระตุ้นการวิจัยที่พิสูจน์ด้วยความรู้เป็นศูนย์ สร้างระบบพิสูจน์ที่ทันสมัยพร้อมรอยเท้าของหน่วยความจำที่เล็กลงและเวลาในการพิสูจน์และตรวจสอบที่เร็วขึ้น ทำให้ตอนนี้สามารถตรวจสอบอัลกอริทึมการเรียนรู้ของเครื่องขนาดเล็กบนเชนได้แล้ว

ถึงตอนนี้ เราทุกคนคงเคยสัมผัสกับศักยภาพของการโต้ตอบกับผลิตภัณฑ์แมชชีนเลิร์นนิงที่ทรงพลังมาก ไม่กี่วันที่ผ่านมา ฉันใช้ GPT-4 ช่วยสร้าง AI ที่เอาชนะฉันในหมากรุกได้อย่างสม่ำเสมอ รู้สึกเหมือนเป็นจักรวาลเล็ก ๆ ของบทกวีของความก้าวหน้าทั้งหมดในการเรียนรู้ของเครื่องในช่วงสองสามทศวรรษที่ผ่านมา: นักพัฒนาของ IBM ใช้เวลา 12 ปีในการประดิษฐ์ Deep Blue ซึ่งเป็นคอมพิวเตอร์ IBM RS/6000 SP แบบ 32 โหนดที่สามารถประเมินได้เกือบ 200 ล้านครั้งต่อวินาที โมเดลดังกล่าว ที่เอาชนะแชมป์หมากรุก Garry Kasparov ในปี 1997 ในทางตรงกันข้าม ฉันใช้เวลาสองสามชั่วโมง -- โดยเขียนโค้ดเพียงเล็กน้อย -- เพื่อสร้างโปรแกรมที่เอาชนะฉันได้

เป็นที่ยอมรับว่าฉันสงสัยว่า AI ที่ฉันสร้างขึ้นสามารถเอาชนะ Garry Kasparov ในการเล่นหมากรุกได้ แต่นั่นไม่ใช่ประเด็น ประเด็นคือใครก็ตามที่เล่นกับ GPT-4 มักจะมีประสบการณ์ที่คล้ายกันกับพลังพิเศษ: คุณสามารถสร้างบางสิ่งที่ใกล้เคียงหรือเกินความสามารถของคุณเองโดยใช้ความพยายามเพียงเล็กน้อย เราทุกคนคือนักวิจัยของ IBM เราทุกคนคือ Garry Kasparov

แน่นอนว่ามันน่าตื่นเต้นและหวาดหวั่นเล็กน้อย สำหรับใครก็ตามที่ทำงานในอุตสาหกรรม cryptocurrency ปฏิกิริยาตามธรรมชาติ (หลังจากประหลาดใจกับสิ่งที่การเรียนรู้ของเครื่องสามารถทำได้) คือการพิจารณาช่องทางที่เป็นไปได้ในการรวมศูนย์และวิธีการกระจายอำนาจช่องทางเหล่านั้นไปสู่ระบบที่ผู้คนสามารถตรวจสอบและเป็นเจ้าของเครือข่ายได้อย่างโปร่งใส โมเดลทุกวันนี้ผลิตขึ้นโดยการกลืนกินข้อความและข้อมูลสาธารณะจำนวนมหาศาล แต่ปัจจุบันมีเพียงไม่กี่คนที่ควบคุมและเป็นเจ้าของโมเดลเหล่านี้ โดยเฉพาะอย่างยิ่ง คำถามไม่ใช่ "ปัญญาประดิษฐ์มีค่ามากหรือไม่" แต่คือ "เราจะสร้างระบบเหล่านี้ได้อย่างไรเพื่อให้ใครก็ตามที่โต้ตอบกับพวกเขาสามารถเก็บเกี่ยวผลประโยชน์ทางเศรษฐกิจได้ และหากพวกเขาต้องการ ให้แน่ใจว่าข้อมูลของพวกเขาถูกใช้ในลักษณะ ที่เคารพสิทธิในความเป็นส่วนตัว".

เมื่อเร็ว ๆ นี้ มีการเรียกร้องให้หยุดชั่วคราวหรือชะลอการพัฒนาโครงการ AI ที่สำคัญอย่าง Chat-GPT การปิดกั้นความคืบหน้าอาจไม่ใช่วิธีแก้ปัญหา: วิธีที่ดีกว่าคือการผลักดันโมเดลโอเพ่นซอร์ส และในกรณีที่ผู้ให้บริการโมเดลต้องการรักษาความเป็นส่วนตัวของน้ำหนักหรือข้อมูล ให้รักษาความปลอดภัยด้วยการพิสูจน์ความรู้ที่ไม่มีความรู้ซึ่งรักษาความเป็นส่วนตัวซึ่งเก็บไว้ บนเครือข่ายและสามารถตรวจสอบได้อย่างสมบูรณ์ กรณีการใช้งานหลังเกี่ยวกับน้ำหนักโมเดลและข้อมูลส่วนตัวยังไม่สามารถทำได้บนเครือข่ายในปัจจุบัน แต่ความก้าวหน้าในระบบพิสูจน์ความรู้ที่ไม่มีความรู้จะช่วยให้สิ่งนี้เกิดขึ้นได้ในอนาคต

การเรียนรู้ของเครื่องที่ตรวจสอบได้และเป็นเจ้าของได้

AI หมากรุกที่ฉันสร้างโดยใช้ Chat-GPT ดูเหมือนจะไม่เป็นอันตรายจนถึงตอนนี้: โปรแกรมที่แสดงผลโปรแกรมที่ค่อนข้างสอดคล้องกันและไม่ใช้ข้อมูลที่ละเมิดทรัพย์สินทางปัญญาอันมีค่าหรือละเมิดความเป็นส่วนตัว แต่ถ้าเราต้องการให้แน่ใจว่าโมเดลที่เราบอกให้รันหลัง API นั้นเป็นโมเดลที่ถูกรันจริงๆ ล่ะ? หรือ จะเกิดอะไรขึ้นถ้าฉันต้องการป้อนข้อมูลที่รับรองความถูกต้องลงในแบบจำลองออนไลน์และต้องแน่ใจว่าข้อมูลนั้นมาจากบุคคลที่ถูกต้องตามกฎหมายจริงๆ จะทำอย่างไรถ้าฉันต้องการให้แน่ใจว่า "บุคคล" ที่ส่งข้อมูลนั้นเป็นมนุษย์จริง ๆ และไม่ใช่บอทที่พยายามเปิดการโจมตีแบบไบแซนไทน์บนเครือข่ายของฉัน การพิสูจน์ด้วยความรู้ที่ไม่มีศูนย์และความสามารถในการนำเสนอและตรวจสอบโปรแกรมโดยพลการโดยสังเขปเป็นวิธีแก้ปัญหา

ควรสังเกตว่าปัจจุบันในบริบทของแมชชีนเลิร์นนิงแบบออนเชน การใช้หลักในการพิสูจน์ความรู้เป็นศูนย์คือการตรวจสอบการคำนวณที่ถูกต้อง กล่าวอีกนัยหนึ่ง การพิสูจน์ความรู้เป็นศูนย์และโดยเฉพาะอย่างยิ่ง SNARK (ข้อโต้แย้งที่ไม่มีการโต้ตอบสั้นๆ ของความรู้) มีประโยชน์มากที่สุดในบริบทของการเรียนรู้ของเครื่องสำหรับคุณสมบัติความเรียบง่าย นี่เป็นเพราะการพิสูจน์ที่ไม่มีความรู้ปกป้องผู้พิสูจน์ (และข้อมูลที่ประมวลผล) จากการสอดรู้สอดเห็น เทคนิคการปรับปรุงความเป็นส่วนตัว เช่น Fully Homomorphic Encryption (FHE), Functional Encryption หรือ Trusted Execution Environments (TEE) นั้นเหมาะสมกว่าสำหรับการให้ผู้พิสูจน์ที่ไม่น่าเชื่อถือเรียกใช้การคำนวณบนข้อมูลอินพุตส่วนตัว (การพูดถึงเทคนิคเหล่านี้ในเชิงลึกนั้นอยู่นอกเหนือขอบเขตของบทความนี้) .

ลองย้อนกลับไปดูในระดับสูงเกี่ยวกับประเภทของแอปพลิเคชันแมชชีนเลิร์นนิงที่สามารถแสดงด้วยความรู้ที่ไม่มีศูนย์ (หากต้องการดูเชิงลึกเกี่ยวกับความรู้ที่ไม่มีศูนย์ โปรดดูบทความของเราเกี่ยวกับการปรับปรุงอัลกอริทึมการพิสูจน์ความรู้ที่ไม่มีศูนย์ และฮาร์ดแวร์ และดูงานวิจัยของ Justin Thaler เกี่ยวกับประสิทธิภาพของ SNARK หรือดูตำราที่ไม่มีความรู้ของเรา) โดยทั่วไปแล้วการพิสูจน์ด้วยความรู้เป็นศูนย์จะแสดงถึงโปรแกรมเป็นวงจรเลขคณิต: การใช้วงจรเหล่านี้ ผู้พิสูจน์สร้างการพิสูจน์จากอินพุตสาธารณะและส่วนตัว และตัวตรวจสอบจะทำการคำนวณทางคณิตศาสตร์เพื่อให้แน่ใจว่าผลลัพธ์ของคำสั่งนี้ถูกต้อง โดยไม่ต้องรับข้อมูลใด ๆ เกี่ยวกับอินพุตส่วนตัว .

เรายังอยู่ในช่วงเริ่มต้นของการตรวจสอบการคำนวณโดยใช้การพิสูจน์ความรู้แบบไม่มีศูนย์บนเครือข่าย แต่การปรับปรุงอัลกอริทึมกำลังขยายสิ่งที่เป็นไปได้ ต่อไปนี้คือ 5 วิธีในการปรับใช้การพิสูจน์ความรู้ที่ไม่มีศูนย์ในแมชชีนเลิร์นนิง1. ความถูกต้องของแบบจำลอง:

คุณต้องการให้แน่ใจว่าโมเดลแมชชีนเลิร์นนิงที่เอนทิตีอ้างว่าเรียกใช้นั้นเป็นโมเดลที่รันจริง ตัวอย่างเช่น ในกรณีที่โมเดลบางอย่างอยู่เบื้องหลัง API อาจมีเอนทิตีหลายเวอร์ชันที่มีโมเดลเฉพาะ เช่น เวอร์ชันที่มีราคาไม่แพง ความแม่นยำน้อยกว่า และเวอร์ชันที่มีราคาแพงกว่าและมีประสิทธิภาพมากกว่า หากไม่มีหลักฐาน คุณไม่มีทางรู้ได้เลยว่าผู้ให้บริการเสนอรุ่นที่ถูกกว่าให้คุณหรือไม่ เมื่อคุณจ่ายจริงสำหรับรุ่นที่แพงกว่า (เช่น ผู้ให้บริการต้องการประหยัดค่าใช้จ่ายเซิร์ฟเวอร์และปรับปรุงอัตรากำไร)

ในการทำเช่นนี้ คุณต้องมีหลักฐานแยกต่างหากสำหรับแต่ละอินสแตนซ์ของโมเดล แนวทางปฏิบัติคือผ่าน Dan Boneh, Wilson Nguyen และ Functional Commitment Framework ของ Alex Ozdemir ซึ่งเป็นโครงร่างพันธสัญญาที่ไม่มีความรู้พื้นฐานบน SNARK ที่อนุญาตให้เจ้าของแบบจำลองตกลงกับแบบจำลองที่ผู้ใช้สามารถป้อนข้อมูล และได้รับการตรวจสอบความถูกต้องของความมุ่งมั่น รุ่นที่เคยวิ่ง. แอปพลิเคชั่นบางตัวที่ใช้ Risc Zero (เครื่องเสมือนที่ใช้ STARK สำหรับวัตถุประสงค์ทั่วไป) ก็ใช้สิ่งนี้เช่นกัน การวิจัยเพิ่มเติมโดย Daniel Kang, Tatsunori Hashimoto, Ion Stoica และ Yi Sun แสดงให้เห็นว่าการอนุมานที่มีประสิทธิภาพสามารถตรวจสอบได้บนชุดข้อมูล ImageNet ด้วยความแม่นยำ 92% (เทียบได้กับแบบจำลอง ImageNet การตรวจสอบความรู้ที่ไม่มีความรู้เป็นศูนย์ที่มีประสิทธิภาพสูงสุด)

แต่เพียงแค่ได้รับการพิสูจน์ว่าโมเดลที่ส่งนั้นรันแล้วนั้นยังไม่เพียงพอ โมเดลอาจไม่แสดงโปรแกรมที่กำหนดอย่างถูกต้อง ดังนั้นคุณจะต้องให้บุคคลที่สามตรวจสอบโมเดลที่ส่งมา ความมุ่งมั่นตามหน้าที่ช่วยให้ผู้พิสูจน์สามารถพิสูจน์ได้ว่าใช้แบบจำลองที่มุ่งมั่น แต่ไม่รับประกันข้อมูลใด ๆ เกี่ยวกับแบบจำลองที่มุ่งมั่น หากเราได้รับการพิสูจน์ที่ไม่มีความรู้เพื่อให้ทำงานได้ดีเพียงพอสำหรับการฝึกอบรมการพิสูจน์ (ดูตัวอย่าง #4 ด้านล่าง) เราอาจเริ่มได้รับการรับประกันเหล่านี้ในอนาคตเช่นกัน2. ความสมบูรณ์ของโมเดล:

คุณต้องการให้แน่ใจว่าอัลกอริทึมการเรียนรู้ของเครื่องเดียวกันทำงานในลักษณะเดียวกันกับข้อมูลจากผู้ใช้ที่แตกต่างกัน สิ่งนี้มีประโยชน์ในพื้นที่ที่คุณไม่ต้องการใช้อคติตามอำเภอใจ เช่น การตัดสินใจให้คะแนนเครดิตและการขอสินเชื่อ คุณยังสามารถใช้สัญญาของฟังก์ชันเพื่อให้บรรลุเป้าหมายนี้ ในการทำเช่นนี้ คุณต้องยอมรับแบบจำลองและพารามิเตอร์ และอนุญาตให้บุคคลส่งข้อมูล เอาต์พุตตรวจสอบว่าโมเดลทำงานด้วยพารามิเตอร์ที่คอมมิตกับข้อมูลของผู้ใช้แต่ละคน อีกทางหนึ่ง โมเดลและพารามิเตอร์สามารถเผยแพร่สู่สาธารณะ และผู้ใช้สามารถพิสูจน์ตนเองได้ว่าพวกเขาใช้โมเดลและพารามิเตอร์ที่เหมาะสมกับข้อมูล (รับรองความถูกต้อง) ของตนเอง สิ่งนี้มีประโยชน์อย่างยิ่งในด้านการแพทย์ ซึ่งกฎหมายกำหนดให้ข้อมูลบางอย่างเกี่ยวกับผู้ป่วยยังคงเป็นส่วนตัว ในอนาคต สิ่งนี้สามารถเปิดใช้งานระบบการวินิจฉัยทางการแพทย์ที่สามารถเรียนรู้และปรับปรุงจากข้อมูลผู้ใช้ตามเวลาจริงในความเป็นส่วนตัวอย่างสมบูรณ์3. การรับรอง:

คุณต้องการรวมการรับรองจากบุคคลภายนอกที่ผ่านการตรวจสอบ (เช่น แพลตฟอร์มดิจิทัลหรืออุปกรณ์ฮาร์ดแวร์ใดๆ ที่สามารถสร้างลายเซ็นดิจิทัล) เข้ากับโมเดลที่ทำงานบนเครือข่ายหรือสัญญาอัจฉริยะประเภทอื่นๆ ในการดำเนินการนี้ คุณจะต้องตรวจสอบลายเซ็นโดยใช้หลักฐานที่ไม่มีความรู้และให้หลักฐานเป็นข้อมูลเข้าในโปรแกรม เมื่อเร็วๆ นี้ แอนนา โรส และทารัน จิตราเป็นเจ้าภาพจัดรายการพอดคาสต์ที่ไม่มีความรู้ โดยมีแดเนียล คังและยี่ ซุน เพื่อหารือเกี่ยวกับพัฒนาการล่าสุดในสาขานี้

โดยเฉพาะอย่างยิ่ง Daniel และ Yi เพิ่งตีพิมพ์งานวิจัยเกี่ยวกับวิธีการตรวจสอบว่าภาพที่ถ่ายด้วยกล้องที่มีเซ็นเซอร์ที่ผ่านการรับรองนั้นผ่านการเปลี่ยนแปลง เช่น การครอบตัด ซึ่งมีประโยชน์ในกรณีที่มีการทำ Deepfakes แต่ได้รับการแก้ไขในทางใดทางหนึ่งอย่างถูกกฎหมาย Dan Boneh และ Trisha Datta ได้ทำการวิจัยที่คล้ายคลึงกัน โดยใช้หลักฐานที่ไม่มีความรู้ในการตรวจสอบที่มาของภาพ

แต่ในวงกว้างกว่านั้น ข้อความที่รับรองความถูกต้องทางดิจิทัลใดๆ เป็นตัวเลือกสำหรับการตรวจสอบรูปแบบนี้: Jason Morton ซึ่งกำลังพัฒนาไลบรารี EZKL (เพิ่มเติมในส่วนถัดไป) เรียกวิธีการนี้ว่า "การนำวิสัยทัศน์มาสู่บล็อกเชน" " ตำแหน่งข้อมูลใดๆ ที่ลงนามแล้ว (เช่น บริการ SXG ของ Cloudflare ทนายความบุคคลที่สาม) จะสร้างลายเซ็นดิจิทัลที่สามารถตรวจสอบได้ ซึ่งจะเป็นประโยชน์ในการพิสูจน์แหล่งที่มาและความถูกต้องจากบุคคลที่น่าเชื่อถือ4. การให้เหตุผลแบบกระจายหรือการฝึกอบรม:

คุณต้องการทำอนุมานการเรียนรู้ของเครื่องหรือการฝึกอบรมในรูปแบบกระจายและอนุญาตให้ผู้คนส่งข้อมูลไปยังโมเดลสาธารณะ ในการทำเช่นนี้ คุณสามารถปรับใช้โมเดลที่มีอยู่บนเครือข่าย หรือออกแบบเครือข่ายใหม่ทั้งหมดและบีบอัดโมเดลโดยใช้การพิสูจน์ความรู้ที่ไม่มีศูนย์ ไลบรารี EZKL ของ Jason Morton กำลังสร้างวิธีการนำเข้าไฟล์ ONXX และ JSON และแปลงเป็นวงจร ZK-SNARK การสาธิตล่าสุดที่ ETH Denver แสดงให้เห็นว่าเทคนิคนี้สามารถใช้เพื่อสร้างการล่าสมบัติแบบออนไลน์ตามการจดจำรูปภาพ ซึ่งผู้สร้างเกมสามารถอัปโหลดรูปภาพ สร้างหลักฐานของรูปภาพ และผู้เล่นสามารถอัปโหลดรูปภาพได้ ผู้ตรวจสอบความถูกต้องจะตรวจสอบว่าผู้ใช้อัปโหลด รูปภาพตรงกับการพิสูจน์ที่ผู้สร้างสร้างขึ้นตรงกันเพียงพอ ขณะนี้ EZKL สามารถตรวจสอบความถูกต้องของโมเดลได้ถึง 100 ล้านพารามิเตอร์ ซึ่งหมายความว่าสามารถใช้เพื่อตรวจสอบความถูกต้องของโมเดลขนาด ImageNet (โมเดลเหล่านี้มีพารามิเตอร์ 60 ล้านพารามิเตอร์) บนเครือข่ายได้

ทีมอื่นๆ เช่น Modulus Labs กำลังเปรียบเทียบระบบพิสูจน์ที่แตกต่างกันสำหรับการอนุมานแบบออนไลน์ เกณฑ์มาตรฐานของโมดูลัสครอบคลุมถึง 18 ล้านพารามิเตอร์ ในแง่ของการฝึกอบรม Gensyn กำลังสร้างระบบคอมพิวเตอร์แบบกระจายที่ผู้ใช้สามารถป้อนข้อมูลสาธารณะและดำเนินการฝึกอบรมแบบจำลองผ่านเครือข่ายโหนดแบบกระจายในขณะที่ตรวจสอบความถูกต้องของการฝึกอบรม5. หลักฐานส่วนบุคคล:

คุณต้องการยืนยันว่าใครบางคนเป็นบุคคลที่มีเอกลักษณ์เฉพาะตัวโดยไม่กระทบต่อความเป็นส่วนตัวของพวกเขา ในการดำเนินการนี้ คุณจะต้องสร้างวิธีการยืนยัน เช่น การสแกนไบโอเมตริกหรือวิธีการส่งบัตรประจำตัวที่ออกโดยรัฐบาลของคุณแบบเข้ารหัส จากนั้น คุณจะใช้การพิสูจน์ที่ไม่มีความรู้เพื่อตรวจสอบว่าบุคคลนั้นได้รับการรับรองความถูกต้องโดยไม่เปิดเผยข้อมูลใดๆ เกี่ยวกับตัวตนของบุคคลนั้น ไม่ว่าตัวตนนั้นจะสามารถระบุตัวตนได้อย่างสมบูรณ์ หรือใช้นามแฝง เช่น กุญแจสาธารณะ

Worldcoin บรรลุสิ่งนี้ผ่านโปรโตคอล Proof of Person ซึ่งรับประกันการต่อต้านการโจมตีด้วยการสร้างรหัสม่านตาเฉพาะสำหรับผู้ใช้ ที่สำคัญ คีย์ส่วนตัวที่สร้างขึ้นสำหรับ WorldID (และคีย์ส่วนตัวอื่น ๆ สำหรับกระเป๋าเงินเข้ารหัสที่สร้างขึ้นสำหรับผู้ใช้ Worldcoin) นั้นแยกจากรหัสม่านตาที่สร้างโดยเครื่องสแกนตาของโครงการโดยสิ้นเชิง การแยกนี้จะแยกตัวระบุไบโอเมตริกออกจากรูปแบบรหัสผู้ใช้ใดๆ Worldcoin ยังอนุญาตให้แอปพลิเคชันฝัง SDK ที่ช่วยให้ผู้ใช้สามารถเข้าสู่ระบบด้วย WorldID และใช้ประโยชน์จากการพิสูจน์ความรู้ที่เป็นศูนย์เพื่อรักษาความเป็นส่วนตัวโดยอนุญาตให้แอปพลิเคชันตรวจสอบว่าบุคคลนั้นมี WorldID หรือไม่ แต่ไม่อนุญาตให้มีการติดตามผู้ใช้แต่ละคน (ดูบล็อกนี้ สำหรับบทความรายละเอียดเพิ่มเติม)

ตัวอย่างนี้เป็นรูปแบบของการใช้คุณสมบัติการรักษาความเป็นส่วนตัวของการพิสูจน์ที่ไม่มีความรู้กับ AI ที่อ่อนแอกว่าและเป็นอันตราย ดังนั้นจึงแตกต่างจากตัวอย่างอื่นๆ ด้านบน (เช่น การพิสูจน์ว่าคุณเป็นมนุษย์จริงๆ ไม่ใช่หุ่นยนต์โดยที่ไม่เปิดเผยข้อมูลใดๆ เกี่ยวกับ ตัวเอง) ข้อมูล) แตกต่างกันมาก

สถาปัตยกรรมแบบจำลองและความท้าทาย

ความก้าวหน้าในระบบการพิสูจน์ที่ใช้ SNARK (Succinct Non-Interactive Arguments of Knowledge) เป็นตัวขับเคลื่อนหลักในการนำโมเดลแมชชีนเลิร์นนิงจำนวนมากมาไว้บนเครือข่าย หลายทีมกำลังสร้างวงจรแบบกำหนดเองในสถาปัตยกรรมที่มีอยู่ (รวมถึง Plonk, Plonky 2, Air เป็นต้น) ในแง่ของวงจรแบบกำหนดเอง Halo 2 ได้กลายเป็นแบ็กเอนด์ที่ใช้กันอย่างแพร่หลายในงานของ Daniel Kang และคณะ และโครงการ EZKL ของ Jason Morton เวลาพิสูจน์ของ Halo 2 เป็นเส้นตรงโดยประมาณ ขนาดการพิสูจน์โดยทั่วไปจะมีเพียงไม่กี่กิโลไบต์ และเวลาของผู้ตรวจสอบจะเป็นค่าคงที่ ที่สำคัญกว่านั้น Halo 2 มีเครื่องมือสำหรับนักพัฒนาที่ทรงพลัง ซึ่งทำให้นักพัฒนาแบ็คเอนด์ของ SNARK ชอบใช้ ทีมอื่นๆ เช่น Risc Zero กำลังดำเนินกลยุทธ์ VM ทั่วไป ทีมอื่นๆ กำลังสร้างเฟรมเวิร์กแบบกำหนดเองโดยใช้ระบบพิสูจน์ประสิทธิภาพพิเศษของ Justin Thaler ตามโปรโตคอลการตรวจสอบผลรวม

เวลาในการสร้างและตรวจสอบการพิสูจน์ขึ้นอยู่กับฮาร์ดแวร์ที่สร้างและตรวจสอบการพิสูจน์และขนาดของวงจรที่สร้างการพิสูจน์ แต่ประเด็นสำคัญที่ควรทราบในที่นี้ก็คือ ไม่ว่าโปรแกรมจะนำเสนอแบบใดก็ตาม ขนาดของหลักฐานจะค่อนข้างเล็กเสมอ ดังนั้นภาระของผู้ตรวจสอบในการตรวจสอบหลักฐานจึงมีขอบเขต อย่างไรก็ตาม มีความละเอียดอ่อนที่นี่: สำหรับระบบพิสูจน์เช่น Plonky 2 ที่ใช้แผนการผูกมัดตาม FRI ขนาดการพิสูจน์อาจเพิ่มขึ้น (เว้นแต่จะใช้กระดาษห่อ SNARK แบบจับคู่ เช่น Plonk หรือ Groth 16 ในตอนท้าย การพิสูจน์เหล่านี้จะไม่เพิ่มขึ้นตามความซับซ้อนของข้อความที่กำลังพิสูจน์)

ความหมายสำหรับโมเดลแมชชีนเลิร์นนิงคือ เมื่อระบบพิสูจน์ได้รับการออกแบบที่แสดงถึงโมเดลได้อย่างถูกต้อง ค่าใช้จ่ายในการตรวจสอบผลลัพธ์จริงจะถูกมาก ข้อควรพิจารณาที่สำคัญที่สุดสำหรับนักพัฒนาคือเวลาในการพิสูจน์และหน่วยความจำ: นำเสนอโมเดลในลักษณะที่สามารถพิสูจน์ได้ค่อนข้างเร็ว และขนาดการพิสูจน์นั้นควรอยู่ในลำดับไม่กี่กิโลไบต์ เพื่อแสดงให้เห็นถึงการดำเนินการที่ถูกต้องของโมเดลแมชชีนเลิร์นนิงภายใต้เงื่อนไขความรู้เป็นศูนย์ คุณต้องเข้ารหัสและแสดงสถาปัตยกรรมโมเดล (เลเยอร์ โหนด และฟังก์ชันการเปิดใช้งาน) พารามิเตอร์ ข้อจำกัด และการดำเนินการคูณเมทริกซ์เป็นวงจร สิ่งนี้เกี่ยวข้องกับการแยกย่อยคุณสมบัติเหล่านี้เป็นการดำเนินการทางคณิตศาสตร์ที่สามารถดำเนินการได้ในฟิลด์ที่มีขอบเขตจำกัด

สนามนี้ยังอยู่ในช่วงเริ่มต้น ความแม่นยำและความเที่ยงตรงอาจลดลงระหว่างการแปลงโมเดลเป็นวงจร เมื่อโมเดลถูกแสดงเป็นวงจรเลขคณิต พารามิเตอร์โมเดล ข้อจำกัด และการดำเนินการคูณเมทริกซ์ดังกล่าวข้างต้นอาจต้องการการประมาณและการทำให้เข้าใจง่าย ความแม่นยำบางอย่างอาจสูญเสียไปเมื่อเข้ารหัสการดำเนินการทางคณิตศาสตร์เป็นองค์ประกอบในเขตข้อมูลการพิสูจน์ที่จำกัด นอกจากนี้ พารามิเตอร์และการเปิดใช้งานโมเดลแมชชีนเลิร์นนิงมักถูกเข้ารหัสเป็น 32 บิตเพื่อเพิ่มความแม่นยำ แต่การพิสูจน์ด้วยความรู้เป็นศูนย์ในปัจจุบันไม่สามารถแสดงการดำเนินการแบบทศนิยม 32 บิตในรูปแบบวงจรเลขคณิตที่จำเป็นได้โดยไม่ทำให้เกิดค่าใช้จ่ายจำนวนมาก ดังนั้น นักพัฒนาอาจเลือกใช้โมเดลแมชชีนเลิร์นนิงเชิงปริมาณ ซึ่งแปลงจำนวนเต็ม 32 บิตเป็นความแม่นยำ 8 บิต แบบจำลองประเภทนี้มีข้อได้เปรียบในการพิสูจน์ว่าไม่มีความรู้ แต่แบบจำลองที่ได้รับการตรวจสอบอาจเป็นค่าประมาณคร่าวๆ ของแบบจำลองเริ่มต้นที่มีคุณภาพสูงกว่า

ในขั้นตอนนี้มันเป็นเกมของการไล่ตาม เมื่อการพิสูจน์ความรู้ที่ไม่มีความรู้ได้รับการปรับให้เหมาะสมมากขึ้น โมเดลการเรียนรู้ของเครื่องจะซับซ้อนมากขึ้น มีการเพิ่มประสิทธิภาพบางส่วนที่มีแนวโน้มอยู่แล้ว: การเรียกซ้ำของ Proof สามารถลดขนาดการพิสูจน์โดยรวมได้โดยการอนุญาตให้ใช้การพิสูจน์เป็นข้อมูลป้อนเข้าสู่การพิสูจน์ครั้งต่อไป ซึ่งจะทำให้สามารถบีบอัดการพิสูจน์ได้ นอกจากนี้ยังมีเฟรมเวิร์กใหม่ๆ เช่น Linear A's fork ของ Apache Tensor Virtual Machine (TVM) ซึ่งแนะนำตัวแปลงที่แปลงตัวเลขทศนิยมให้เป็นการแสดงจำนวนเต็มที่เป็นมิตรต่อความรู้เป็นศูนย์ สุดท้ายนี้ พวกเราที่ a16z crypto มองโลกในแง่ดีเกี่ยวกับงานในอนาคตที่จะทำให้การแสดงจำนวนเต็ม 32 บิตใน SNARK สมเหตุสมผลมากขึ้น

คำจำกัดความสองประการของ "มาตราส่วน" การพิสูจน์ด้วยความรู้เป็นศูนย์ผ่านการบีบอัด: SNARK ช่วยให้คุณสามารถแสดงทางคณิตศาสตร์ของระบบที่ซับซ้อนอย่างยิ่ง (เช่น เครื่องเสมือนหรือโมเดลการเรียนรู้ของเครื่อง) ซึ่งค่าใช้จ่ายในการตรวจสอบนั้นต่ำกว่าค่าใช้จ่ายในการดำเนินการ มัน. ในทางกลับกัน แมชชีนเลิร์นนิงจะปรับขนาดตามขนาด: โมเดลในปัจจุบันดีขึ้นด้วยข้อมูล พารามิเตอร์ และ GPU/TPU ที่มากขึ้นที่เกี่ยวข้องกับกระบวนการฝึกอบรมและการอนุมาน บริษัทแบบรวมศูนย์สามารถเรียกใช้เซิร์ฟเวอร์ในขนาดที่ไม่จำกัด โดยเรียกเก็บค่าบริการรายเดือนสำหรับการเรียก API และชำระค่าใช้จ่ายในการดำเนินการ

ความเป็นจริงทางเศรษฐกิจของเครือข่ายบล็อกเชนนั้นแทบจะตรงกันข้าม: นักพัฒนาได้รับแรงจูงใจในการปรับโค้ดให้เหมาะสมเพื่อให้เป็นไปได้และราคาถูกในการรันบนเครือข่าย ความไม่สมมาตรนี้มีข้อดีอย่างมาก: มันสร้างสภาพแวดล้อมที่ต้องปรับปรุงประสิทธิภาพของระบบพิสูจน์ เราควรมองหาการอ้างสิทธิ์ในแมชชีนเลิร์นนิงซึ่งมีประโยชน์แบบเดียวกับที่บล็อกเชนมอบให้ เช่น ความเป็นเจ้าของที่ตรวจสอบได้และการรับรู้ความจริงร่วมกัน

ในขณะที่บล็อกเชนสร้างแรงจูงใจในการเพิ่มประสิทธิภาพ zk-SNARK ทุกส่วนของการประมวลผลจะได้รับประโยชน์

นักพัฒนา
AI
เทคโนโลยี
a16z
ยินดีต้อนรับเข้าร่วมชุมชนทางการของ Odaily
กลุ่มสมาชิก
https://t.me/Odaily_News
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
บัญชีทางการ
https://twitter.com/OdailyChina
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
สรุปโดย AI
กลับไปด้านบน
เรายังอยู่ในช่วงเริ่มต้นของการตรวจสอบการคำนวณโดยใช้การพิสูจน์ความรู้แบบไม่มีศูนย์บนเ
ดาวน์โหลดแอพ Odaily พลาเน็ตเดลี่
ให้คนบางกลุ่มเข้าใจ Web3.0 ก่อน
IOS
Android