ผู้เขียนต้นฉบับ: Defi 0x Jeff หัวหน้าสตูดิโอสเต็ก
คำแปลต้นฉบับ: โจวโจว, BlockBeats
หมายเหตุของบรรณาธิการ: บทความนี้มุ่งเน้นไปที่เทคโนโลยีต่างๆ ที่ช่วยเสริมความเป็นส่วนตัวและความปลอดภัย รวมถึงการพิสูจน์ความรู้เป็นศูนย์ (ZKP), สภาพแวดล้อมการดำเนินการที่เชื่อถือได้ (TEE), การเข้ารหัสแบบโฮโมมอร์ฟิกอย่างสมบูรณ์ (FHE) เป็นต้น บทความนี้จะแนะนำการประยุกต์ใช้เทคโนโลยีเหล่านี้ใน AI และการประมวลผลข้อมูล วิธีการปกป้องความเป็นส่วนตัวของผู้ใช้ ป้องกันการรั่วไหลของข้อมูล และปรับปรุงความปลอดภัยของระบบ บทความยังได้กล่าวถึงกรณีบางกรณี เช่น Earnifi, Opacity และ MindV โดยแสดงให้เห็นว่าเทคโนโลยีเหล่านี้สามารถนำมาใช้เพื่อให้บรรลุการลงคะแนนเสียงที่ปราศจากความเสี่ยง การประมวลผลการเข้ารหัสข้อมูล เป็นต้น แต่ในขณะเดียวกัน เทคโนโลยีเหล่านี้ก็เผชิญกับความท้าทายมากมาย เช่น ค่าใช้จ่ายในการประมวลผลและปัญหาด้านความหน่วง
ต่อไปนี้เป็นเนื้อหาต้นฉบับ (เพื่อให้อ่านและเข้าใจง่ายขึ้น เนื้อหาต้นฉบับได้รับการจัดระเบียบใหม่):
เนื่องจากอุปทานและความต้องการข้อมูลมีมากขึ้น รอยเท้าดิจิทัลที่บุคคลต่างๆ ทิ้งไว้จึงกว้างขวางมากขึ้น ทำให้ข้อมูลส่วนบุคคลมีความเสี่ยงต่อการถูกใช้ในทางที่ผิดหรือการเข้าถึงโดยไม่ได้รับอนุญาตมากขึ้น เราเคยเห็นกรณีการรั่วไหลของข้อมูลส่วนตัวมาบ้างแล้ว เช่น กรณีอื้อฉาวของ Cambridge Analytica
สำหรับผู้ที่ยังไม่ทราบ โปรดดูตอนที่ 1 ของซีรีส์ซึ่งเราได้พูดถึง:
ความสำคัญของข้อมูล
การเติบโตของความต้องการข้อมูลจากปัญญาประดิษฐ์
การเกิดขึ้นของชั้นข้อมูล
GDPR ของยุโรป CCPA ของแคลิฟอร์เนีย และระเบียบข้อบังคับอื่นๆ ทั่วโลกทำให้ความเป็นส่วนตัวของข้อมูลไม่ใช่เพียงปัญหาทางจริยธรรมเท่านั้น แต่ยังเป็นข้อกำหนดทางกฎหมายอีกด้วย โดยผลักดันให้บริษัทต่างๆ ต้องปกป้องข้อมูล
ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ AI ได้ปรับปรุงการปกป้องความเป็นส่วนตัวให้ดีขึ้นในขณะที่ทำให้ด้านความเป็นส่วนตัวและการตรวจสอบมีความซับซ้อนมากขึ้น ตัวอย่างเช่น แม้ว่า AI จะช่วยตรวจจับกิจกรรมฉ้อโกงได้ แต่ AI ก็ยังช่วยให้สามารถใช้เทคโนโลยี “deep fake” ได้ ซึ่งทำให้การตรวจสอบความถูกต้องของเนื้อหาดิจิทัลทำได้ยากยิ่งขึ้น
ข้อได้เปรียบ
การเรียนรู้ของเครื่องจักรที่รักษาความเป็นส่วนตัว: การเรียนรู้แบบรวมศูนย์ช่วยให้สามารถฝึกโมเดล AI ได้โดยตรงบนอุปกรณ์โดยไม่รวมข้อมูลที่ละเอียดอ่อนไว้เป็นศูนย์กลาง จึงช่วยปกป้องความเป็นส่วนตัวของผู้ใช้
AI สามารถใช้เพื่อปกปิดหรือใช้ชื่อแทนข้อมูลได้ ซึ่งทำให้ไม่สามารถติดตามย้อนกลับไปยังบุคคลใดบุคคลหนึ่งได้โดยง่าย ในขณะที่ยังคงมีประโยชน์สำหรับการวิเคราะห์
AI จะมีบทบาทสำคัญในการพัฒนาเครื่องมือเพื่อตรวจจับและลดการแพร่กระจายของ deepfakes ซึ่งจะทำให้แน่ใจได้ว่าเนื้อหาดิจิทัลสามารถตรวจสอบได้ (และตรวจจับ/ยืนยันความถูกต้องของตัวแทน AI)
AI สามารถมั่นใจได้โดยอัตโนมัติว่าแนวทางการประมวลผลข้อมูลเป็นไปตามมาตรฐานทางกฎหมาย ทำให้กระบวนการตรวจสอบปรับขนาดได้มากขึ้น
ท้าทาย
ระบบ AI มักต้องใช้ชุดข้อมูลขนาดใหญ่จึงจะทำงานได้อย่างมีประสิทธิภาพ แต่การใช้ จัดเก็บ และเข้าถึงข้อมูลนั้นอาจไม่ชัดเจน ทำให้เกิดข้อกังวลเกี่ยวกับความเป็นส่วนตัว
ด้วยข้อมูลที่เพียงพอและเทคนิค AI ขั้นสูง ทำให้สามารถระบุบุคคลใหม่จากชุดข้อมูลที่ไม่ระบุชื่อได้ ซึ่งจะส่งผลกระทบต่อการปกป้องความเป็นส่วนตัว
เนื่องจาก AI สามารถสร้างข้อความ รูปภาพ หรือวิดีโอที่สมจริงได้สูง จึงทำให้การแยกแยะระหว่างเนื้อหาจริงและเนื้อหาที่ AI ปลอมทำได้ยากยิ่งขึ้น ซึ่งถือเป็นความท้าทายในการตรวจยืนยัน
โมเดล AI อาจถูกหลอกลวงหรือถูกบิดเบือน (โจมตีเชิงต่อต้าน) ส่งผลให้ไม่สามารถตรวจสอบข้อมูลหรือความสมบูรณ์ของระบบ AI เองได้ (ดังที่เห็นในกรณีของ Freysa, Jailbreak เป็นต้น)
ความท้าทายเหล่านี้ผลักดันการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI, บล็อคเชน, การตรวจสอบ และความเป็นส่วนตัว โดยใช้ประโยชน์จากจุดแข็งของแต่ละเทคโนโลยี เราได้เห็นการเพิ่มขึ้นของเทคโนโลยีดังต่อไปนี้:
การพิสูจน์ความรู้เป็นศูนย์ (ZKP)
การรักษาความปลอดภัยชั้นการขนส่งแบบไร้ความรู้ (zkTLS)
สภาพแวดล้อมการทำงานที่เชื่อถือได้ (TEE)
การเข้ารหัสแบบโฮโมมอร์ฟิกอย่างสมบูรณ์ (FHE)
1. การพิสูจน์ความรู้เป็นศูนย์ (ZKP)
ZKP อนุญาตให้ฝ่ายหนึ่งพิสูจน์ให้ฝ่ายอื่นเห็นว่าพวกเขารู้ข้อมูลบางอย่างหรือคำกล่าวบางอย่างเป็นความจริง โดยไม่ต้องเปิดเผยข้อมูลใดๆ นอกเหนือจากการพิสูจน์นั้นเอง AI สามารถใช้สิ่งนี้เพื่อพิสูจน์ว่าการประมวลผลข้อมูลหรือการตัดสินใจเป็นไปตามมาตรฐานบางอย่างโดยไม่ต้องเปิดเผยข้อมูลดังกล่าว กรณีศึกษาที่ดีคือ getgrass.io ซึ่งใช้แบนด์วิดท์อินเทอร์เน็ตที่ไม่ได้ใช้งานเพื่อรวบรวมและจัดระเบียบข้อมูลเว็บสาธารณะเพื่อฝึกอบรมโมเดล AI
Grass Network ช่วยให้ผู้ใช้สามารถใช้แบนด์วิดท์อินเทอร์เน็ตที่ไม่ได้ใช้งานผ่านส่วนขยายเบราว์เซอร์หรือแอปพลิเคชัน ซึ่งใช้ในการรวบรวมข้อมูลเว็บสาธารณะและประมวลผลเป็นชุดข้อมูลที่มีโครงสร้างที่เหมาะสมสำหรับการฝึกอบรม AI เครือข่ายดำเนินกระบวนการสแกนเว็บผ่านโหนดที่รันโดยผู้ใช้
Grass Network ให้ความสำคัญกับความเป็นส่วนตัวของผู้ใช้ และจะรวบรวมเฉพาะข้อมูลสาธารณะเท่านั้น ไม่ใช่ข้อมูลส่วนบุคคล ใช้การพิสูจน์ความรู้เป็นศูนย์เพื่อตรวจยืนยันและปกป้องความสมบูรณ์และแหล่งที่มาของข้อมูล ป้องกันการทุจริตข้อมูลและรับรองความโปร่งใส ธุรกรรมการรวบรวมและประมวลผลข้อมูลทั้งหมดได้รับการจัดการผ่านการรวบรวมข้อมูลอธิปไตยบนบล็อคเชน Solana
ZKME ถือเป็นกรณีศึกษาที่ดีอีกกรณีหนึ่ง
โซลูชัน zkKYC ของ zkMe ช่วยแก้ไขปัญหาในการดำเนินการกระบวนการ KYC (Know Your Customer) ในลักษณะที่รักษาความเป็นส่วนตัว โดยการใช้หลักฐานความรู้เป็นศูนย์ zkKYC ช่วยให้แพลตฟอร์มสามารถตรวจสอบตัวตนของผู้ใช้ได้โดยไม่เปิดเผยข้อมูลส่วนบุคคลที่ละเอียดอ่อน จึงช่วยปกป้องความเป็นส่วนตัวของผู้ใช้ในขณะที่ยังรักษาการปฏิบัติตามกฎระเบียบ
2. zkTLS
TLS = โปรโตคอลความปลอดภัยมาตรฐานที่ให้ความเป็นส่วนตัวและความสมบูรณ์ของข้อมูลระหว่างแอปพลิเคชั่นการสื่อสารสองรายการ (โดยปกติจะเกี่ยวข้องกับ "s" ใน HTTPS) zk + TLS = ปรับปรุงความเป็นส่วนตัวและความปลอดภัยในการส่งข้อมูล
กรณีศึกษาที่ดีคือ OpacityNetwork
Opacity ใช้ zkTLS เพื่อมอบโซลูชันการจัดเก็บข้อมูลที่ปลอดภัยและเป็นส่วนตัว ด้วยการผสานรวม zkTLS เข้าด้วยกัน Opacity จึงมั่นใจได้ว่าการส่งข้อมูลระหว่างผู้ใช้และเซิร์ฟเวอร์จัดเก็บข้อมูลจะยังคงเป็นความลับและไม่ถูกดัดแปลง จึงช่วยแก้ปัญหาด้านความเป็นส่วนตัวที่มักเกิดขึ้นในบริการจัดเก็บข้อมูลบนคลาวด์แบบเดิมได้
กรณีการใช้งาน — Earnifi ซึ่งเป็นแอปที่รายงานว่าไต่อันดับขึ้นมาอยู่ในอันดับต้นๆ ของการจัดอันดับใน App Store โดยเฉพาะในหมวดหมู่การเงิน โดยใช้ zkTLS ของ OpacityNetwork
ความเป็นส่วนตัว: ผู้ใช้สามารถให้ข้อมูลรายได้หรือสถานะการจ้างงานแก่ผู้ให้กู้หรือบริการอื่น ๆ ได้โดยไม่ต้องเปิดเผยข้อมูลธนาคารที่ละเอียดอ่อนหรือข้อมูลส่วนตัว เช่น ใบแจ้งยอดธนาคาร
ความปลอดภัย: การใช้ zkTLS ช่วยให้แน่ใจว่าธุรกรรมเหล่านี้ปลอดภัย ได้รับการรับรอง และยังคงเป็นส่วนตัว ช่วยหลีกเลี่ยงความจำเป็นที่ผู้ใช้จะต้องฝากข้อมูลทางการเงินทั้งหมดไว้กับบุคคลที่สาม
ประสิทธิภาพ: ระบบช่วยลดต้นทุนและความซับซ้อนที่เกี่ยวข้องกับแพลตฟอร์มการเข้าถึงค่าจ้างล่วงหน้าแบบดั้งเดิม ซึ่งอาจต้องใช้กระบวนการตรวจสอบที่ยุ่งยากหรือการแบ่งปันข้อมูล
3.ที
Trusted Execution Environment (TEE) จัดให้มีการแยกที่บังคับใช้ฮาร์ดแวร์ระหว่างสภาพแวดล้อมการดำเนินการปกติและสภาพแวดล้อมการดำเนินการที่ปลอดภัย นี่อาจเป็นการใช้งานด้านความปลอดภัยที่เป็นที่รู้จักมากที่สุดในตัวแทน AI ในขณะนี้ เพื่อให้แน่ใจว่าเป็นตัวแทนที่ทำงานโดยอัตโนมัติอย่างเต็มรูปแบบ ได้รับความนิยมจากการทดลอง aipool tee ของ 123skely ซึ่งเป็นกิจกรรมการขายล่วงหน้าของ TEE ที่ชุมชนส่งเงินให้กับตัวแทน และตัวแทนจะออกโทเค็นโดยอัตโนมัติตามกฎที่กำหนดไว้ล่วงหน้า
PhalaNetwork โดย Marvin Tong: การป้องกัน MEV, ElizaOS ที่มีการรวม ai16z dao และ Agent Kira เป็นตัวแทน AI อัตโนมัติที่ตรวจสอบได้
การใช้งาน TEE แบบคลิกเดียวของ fleek มุ่งเน้นไปที่การทำให้การใช้งานง่ายขึ้นและปรับปรุงการเข้าถึงของนักพัฒนา
4. FHE (การเข้ารหัสแบบโฮโมมอร์ฟิกอย่างสมบูรณ์)
รูปแบบการเข้ารหัสที่ช่วยให้สามารถดำเนินการคำนวณบนข้อมูลที่เข้ารหัสโดยตรงโดยไม่ต้องถอดรหัสข้อมูลก่อน
กรณีศึกษาที่ดีคือ Mindnetwork xyz และเทคโนโลยี/กรณีการใช้งาน FHE ที่เป็นกรรมสิทธิ์
กรณีการใช้งาน — เลเยอร์สเตกกิ้ง FHE หนักและการลงคะแนนเสียงแบบไร้ความเสี่ยง
ชั้นหลักประกันหนัก FHE โดยการใช้ FHE สินทรัพย์ที่มีหลักประกันหนักจะยังคงถูกเข้ารหัส ซึ่งหมายความว่าคีย์ส่วนตัวจะไม่ถูกเปิดเผย ทำให้ความเสี่ยงด้านความปลอดภัยลดลงอย่างมาก ซึ่งจะช่วยให้มั่นใจถึงความเป็นส่วนตัวพร้อมทั้งตรวจสอบธุรกรรมไปด้วย
การลงคะแนนเสียงแบบไร้ความเสี่ยง (MindV)
การลงคะแนนเสียงแบบกำกับดูแลจะดำเนินการบนข้อมูลที่เข้ารหัส ทำให้มั่นใจได้ว่าการลงคะแนนเสียงจะยังคงเป็นส่วนตัวและปลอดภัย ลดความเสี่ยงจากการบังคับหรือการติดสินบน ผู้ใช้ได้รับอำนาจในการลงคะแนนเสียง (vFHE) โดยการถือครองสินทรัพย์ที่มีจำนวนมาก ดังนั้นจึงแยกการกำกับดูแลออกจากการเปิดรับสินทรัพย์โดยตรง
เอฟเอชอี + ทีอี
การรวม TEE และ FHE เข้าด้วยกันจะสร้างชั้นความปลอดภัยที่แข็งแกร่งสำหรับการประมวลผล AI:
TEE ปกป้องการดำเนินงานในสภาพแวดล้อมการประมวลผลจากภัยคุกคามจากภายนอก
FHE รับประกันว่าการดำเนินการต่างๆ จะดำเนินการกับข้อมูลที่เข้ารหัสอยู่เสมอตลอดกระบวนการ
สำหรับสถาบันที่ดำเนินการธุรกรรมมูลค่า 100 ล้านถึง 1 พันล้านดอลลาร์ขึ้นไป ความเป็นส่วนตัวและความปลอดภัยถือเป็นสิ่งสำคัญเพื่อป้องกันการดำเนินการล่วงหน้า การแฮ็ก หรือการเปิดเผยกลยุทธ์การซื้อขาย
สำหรับตัวแทน AI การเข้ารหัสสองชั้นนี้ช่วยเพิ่มความเป็นส่วนตัวและความปลอดภัย ทำให้มีประโยชน์ในด้านต่างๆ ต่อไปนี้:
ความเป็นส่วนตัวของข้อมูลการฝึกอบรมที่ละเอียดอ่อน
ปกป้องน้ำหนักของโมเดลภายใน (เพื่อป้องกันการวิศวกรรมย้อนกลับ/การขโมย IP)
การคุ้มครองข้อมูลผู้ใช้
ความท้าทายหลักของ FHE ยังคงอยู่ที่ค่าใช้จ่ายทางวิศวกรรมที่สูงเนื่องจากความเข้มข้นในการคำนวณ ส่งผลให้การใช้พลังงานและความหน่วงเพิ่มขึ้น การวิจัยปัจจุบันกำลังสำรวจวิธีการต่างๆ เช่น การเร่งด้วยฮาร์ดแวร์ เทคนิคการเข้ารหัสไฮบริด และการเพิ่มประสิทธิภาพของอัลกอริธึม เพื่อลดภาระการคำนวณและปรับปรุงประสิทธิภาพ ดังนั้น FHE จึงเหมาะที่สุดสำหรับแอปพลิเคชั่นที่มีการคำนวณต่ำและมีความหน่วงเวลาสูง
สรุป
FHE = ดำเนินการบนข้อมูลที่เข้ารหัสโดยไม่ถอดรหัส (มีการปกป้องความเป็นส่วนตัวที่แข็งแกร่งที่สุด แต่มีราคาแพงที่สุด)
TEE = ฮาร์ดแวร์ การดำเนินการที่ปลอดภัยในสภาพแวดล้อมที่แยกจากกัน (สมดุลระหว่างความปลอดภัยและประสิทธิภาพ)
ZKP = พิสูจน์ข้อความหรือยืนยันตัวตนโดยไม่เปิดเผยข้อมูลพื้นฐาน (ดีสำหรับการพิสูจน์ข้อเท็จจริง/ข้อมูลประจำตัว)
นี่เป็นหัวข้อที่กว้างมาก ดังนั้น นี่ไม่ใช่จุดสิ้นสุด คำถามสำคัญที่ยังคงอยู่คือ: ในยุคที่มีเทคโนโลยี Deepfake ที่ซับซ้อนมากขึ้นเรื่อยๆ เราจะมั่นใจได้อย่างไรว่ากลไกการตรวจสอบที่ขับเคลื่อนด้วย AI นั้นน่าเชื่อถืออย่างแท้จริง ในส่วนที่ 3 เราจะเจาะลึกลงไปที่:
ชั้นการตรวจสอบได้
บทบาทของ AI ในการตรวจสอบความสมบูรณ์ของข้อมูล
อนาคตของความเป็นส่วนตัวและความปลอดภัย


