คำเตือนความเสี่ยง: ระวังความเสี่ยงจากการระดมทุนที่ผิดกฎหมายในนาม 'สกุลเงินเสมือน' 'บล็อกเชน' — จากห้าหน่วยงานรวมถึงคณะกรรมการกำกับดูแลการธนาคารและการประกันภัย
ข่าวสาร
ค้นพบ
ค้นหา
เข้าสู่ระบบ
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt
BTC
ETH
HTX
SOL
BNB
ดูตลาด
ผลงานบุกเบิกมองอนาคตของ AI จาก "Attention Is All You Need"
区块律动BlockBeats
特邀专栏作者
2024-03-28 13:00
บทความนี้มีประมาณ 1525 คำ การอ่านทั้งหมดใช้เวลาประมาณ 3 นาที
เมื่อผู้คนมั่นใจว่าข้อมูลของพวกเขาจะได้รับการปกป้องด้วยการเข้ารหัส และเต็มใจที่จะให้ข้อมูลของพวกเขา บางทีเราอาจประสบความสำเร็จในการพัฒนา AGI ได้

ผู้เขียนต้นฉบับ: hmalviya 9

การรวบรวมต้นฉบับ: Frank, Foresight News

หมายเหตุบรรณาธิการ: บทความ Attention Is All You Need ได้รับการตีพิมพ์ในปี 2560 และมีผู้อ้างอิงมากกว่า 110,000 ครั้ง นี่ไม่ได้เป็นเพียงหนึ่งในต้นกำเนิดของเทคโนโลยีโมเดลขนาดใหญ่ที่นำเสนอโดย ChatGPT ในปัจจุบัน แต่ยังแนะนำสถาปัตยกรรม Transformer และกลไกความสนใจ นอกจากนี้ยังใช้กันอย่างแพร่หลายในเทคโนโลยี AI มากมายที่อาจเปลี่ยนแปลงโลก เช่น Sora และ AlphaFold

บทความวิจัยเรื่อง Attention Is All You Need จะเปลี่ยนอนาคตของปัญญาประดิษฐ์ (AI) สมัยใหม่ไปอย่างสิ้นเชิง ในบทความนี้ ผมจะเจาะลึกเกี่ยวกับโมเดล Transformer และอนาคตของ AI

เมื่อวันที่ 12 มิถุนายน 2017 วิศวกรของ Google แปดคนตีพิมพ์รายงานการวิจัยชื่อ Attention Is All You Need บทความนี้กล่าวถึงสถาปัตยกรรมเครือข่ายประสาทเทียมที่จะเปลี่ยนแปลงอนาคตของ AI สมัยใหม่

ในการประชุม GTC เมื่อวันที่ 21 มีนาคม 2024 ที่ผ่านมา Huang Jensen ผู้ก่อตั้ง NVIDIA ได้จัดการสนทนากลุ่มกับวิศวกรของ Google ทั้ง 8 คน และขอบคุณพวกเขาที่แนะนำสถาปัตยกรรม Transformer เพื่อทำให้ AI สมัยใหม่เป็นไปได้ น่าแปลกที่ใช่ ผู้ก่อตั้ง NEAR อยู่ในรายชื่อนี้จริงๆ จำนวน 8 คน

หม้อแปลงไฟฟ้าคืออะไร?

Transformer เป็นโครงข่ายประสาทเทียม

โครงข่ายประสาทเทียมคืออะไร? ได้รับแรงบันดาลใจจากโครงสร้างและการทำงานของสมองมนุษย์ และประมวลผลข้อมูลผ่านเซลล์ประสาทเทียมจำนวนมากที่เชื่อมต่อถึงกัน แต่ไม่ใช่แบบจำลองสมองของมนุษย์ที่สมบูรณ์

พูดง่ายๆ ก็คือ สมองของมนุษย์ก็เหมือนกับป่าฝนอเมซอน ซึ่งมีพื้นที่ต่างๆ มากมายและมีเส้นทางเชื่อมต่อกันมากมาย เซลล์ประสาทเปรียบเสมือนตัวเชื่อมระหว่างทางเดินเหล่านี้ พวกมันสามารถส่งและรับสัญญาณไปยังส่วนใดส่วนหนึ่งของป่าฝนได้ ดังนั้น การเชื่อมต่อจึงเป็นทางเดินที่รับผิดชอบในการเชื่อมต่อพื้นที่สมองสองส่วนที่แตกต่างกัน

สิ่งนี้ทำให้สมองของเรามีความสามารถในการเรียนรู้ที่ทรงพลังมาก ซึ่งช่วยให้สามารถเรียนรู้ได้อย่างรวดเร็ว จดจำรูปแบบ และให้ผลลัพธ์ที่แม่นยำ โครงข่ายประสาทเทียมเช่น Transformer พยายามที่จะบรรลุความสามารถในการเรียนรู้เช่นเดียวกับสมองของมนุษย์ แต่ระดับเทคโนโลยีในปัจจุบันนั้นน้อยกว่า 1% ของสมองมนุษย์

Transformers มีความก้าวหน้าอย่างน่าประทับใจในด้าน Generative AI ในช่วงไม่กี่ปีที่ผ่านมา เมื่อมองย้อนกลับไปที่วิวัฒนาการของปัญญาประดิษฐ์สมัยใหม่ เราจะเห็นได้ว่าปัญญาประดิษฐ์ในยุคแรกนั้นมีลักษณะคล้ายกับ Siri และแอปพลิเคชันเสียง/การจดจำอื่นๆ เป็นหลัก

แอปพลิเคชันเหล่านี้สร้างขึ้นโดยใช้ Recurrent Neural Networks (RNN) RNN มีข้อจำกัดบางประการที่ Transformers แก้ไขและปรับปรุง ซึ่งแนะนำกลไกการเอาใจใส่ตนเองที่ช่วยให้สามารถวิเคราะห์ทุกส่วนของลำดับใดๆ ได้พร้อมๆ กัน จึงบันทึกการขึ้นต่อกันในระยะยาวและเนื้อหาตามบริบท

เรายังเร็วมากในวงจรนวัตกรรมของ Transformer Transformer มีอนุพันธ์ที่แตกต่างกันหลายอย่าง เช่น XLNet, BERT และ GPT

GPT เป็น GPT ที่เป็นที่รู้จักมากที่สุด แต่ก็ยังมีความสามารถที่จำกัดในการทำนายเหตุการณ์

เมื่อโมเดลภาษาขนาดใหญ่ (LLM) สามารถทำนายเหตุการณ์ตามข้อมูลและรูปแบบในอดีตได้ นี่จะเป็นการก้าวกระโดดครั้งใหญ่ครั้งต่อไปใน AI สมัยใหม่ และจะเร่งการเดินทางของเราไปสู่ปัญญาประดิษฐ์ทั่วไป (AGI)

เพื่อให้บรรลุถึงพลังในการทำนายนี้ โมเดลภาษาขนาดใหญ่ (LLM) จึงใช้หม้อแปลงฟิวชั่นชั่วคราว (TFT) ซึ่งเป็นโมเดลที่คาดการณ์ค่าในอนาคตตามชุดข้อมูลที่แตกต่างกัน และยังสามารถอธิบายการคาดการณ์ที่เกิดขึ้นได้อีกด้วย

นอกจากจะใช้สำหรับการทำนายแล้ว TFT ยังสามารถนำมาใช้ในฟิลด์บล็อคเชนได้อีกด้วย ด้วยการกำหนดกฎเฉพาะในโมเดล TFT จึงสามารถดำเนินการต่อไปนี้ได้โดยอัตโนมัติ: จัดการกระบวนการฉันทามติอย่างมีประสิทธิภาพ เพิ่มความเร็วในการผลิตบล็อก ให้รางวัลแก่ผู้ตรวจสอบที่ซื่อสัตย์ และลงโทษผู้ตรวจสอบที่เป็นอันตราย

เครือข่ายบล็อคเชนสามารถให้รางวัลบล็อกที่ใหญ่กว่าแก่ผู้ตรวจสอบที่มีคะแนนชื่อเสียงที่สูงกว่าซึ่งสามารถขึ้นอยู่กับประวัติการโหวต ประวัติข้อเสนอบล็อก ประวัติสแลช จำนวนการเดิมพัน กิจกรรม และพารามิเตอร์อื่น ๆ อีกมากมาย สร้าง

กลไกฉันทามติของห่วงโซ่สาธารณะนั้นเป็นเกมระหว่างผู้ตรวจสอบ ซึ่งต้องใช้มากกว่าสองในสามของผู้ตรวจสอบเพื่อตกลงว่าใครจะเป็นผู้สร้างบล็อกต่อไป ในระหว่างกระบวนการนี้ อาจเกิดความขัดแย้งและการโต้แย้งมากมาย ซึ่งเป็นปัจจัยที่ทำให้เครือข่ายเชนสาธารณะ เช่น Ethereum ไร้ประสิทธิภาพของเครือข่ายเชนสาธารณะ

TFT สามารถใช้เป็นกลไกที่เป็นเอกฉันท์ในการปรับปรุงประสิทธิภาพโดยการปรับปรุงเวลาบล็อกและให้รางวัลแก่ผู้ตรวจสอบความถูกต้องตามชื่อเสียงในการผลิตบล็อก ตัวอย่างเช่น BaseAI ซึ่งใช้โมเดล TFT กับกระบวนการฉันทามติ จะใช้โมเดลนี้เพื่อจัดสรรการออกโทเค็นระหว่างผู้ตรวจสอบและผู้เข้าร่วมเครือข่าย

BasedAI ยังเสนอให้ใช้เทคโนโลยี FHE เพื่อให้นักพัฒนาสามารถโฮสต์โมเดลภาษาขนาดใหญ่ที่รักษาความเป็นส่วนตัว (Zk-LLMs) บนโครงสร้างพื้นฐาน AI แบบกระจายอำนาจที่เรียกว่า Brains ด้วยการรวมเทคโนโลยี FHE เข้ากับโมเดลภาษาขนาดใหญ่ จึงสามารถปกป้องผู้ใช้ได้ ข้อมูลส่วนบุคคลเมื่อพวกเขาเลือกที่จะเปิดใช้งานบริการ AI ส่วนบุคคล

เมื่อผู้คนเต็มใจที่จะให้ข้อมูลด้วยความมั่นใจว่าข้อมูลของพวกเขาจะถูกเข้ารหัสและเป็นส่วนตัวอย่างสมบูรณ์ บางที เราอาจประสบความสำเร็จในการพัฒนาปัญญาประดิษฐ์ทั่วไป (AGI) ช่องว่างนี้ถูกเติมเต็มด้วยเทคโนโลยีที่เน้นความเป็นส่วนตัว เช่น การคำนวณแบบตาบอดของเครือข่ายล้านล้าน , การเรียนรู้ของเครื่องแบบไม่มีความรู้ (ZkML) และเทคโนโลยีการเข้ารหัสแบบโฮโมมอร์ฟิก (FHE)

อย่างไรก็ตาม เทคโนโลยีที่เน้นความเป็นส่วนตัวทั้งหมดนี้ต้องการทรัพยากรการประมวลผลจำนวนมาก ซึ่งทำให้เทคโนโลยีเหล่านี้อยู่ในขั้นเริ่มต้นของการใช้งาน


AI
ยินดีต้อนรับเข้าร่วมชุมชนทางการของ Odaily
กลุ่มสมาชิก
https://t.me/Odaily_News
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
บัญชีทางการ
https://twitter.com/OdailyChina
กลุ่มสนทนา
https://t.me/Odaily_CryptoPunk
สรุปโดย AI
กลับไปด้านบน
เมื่อผู้คนมั่นใจว่าข้อมูลของพวกเขาจะได้รับการปกป้องด้วยการเข้ารหัส และเต็มใจที่จะให้ข้อมูลของพวกเขา บางทีเราอาจประสบความสำเร็จในการพัฒนา AGI ได้
ดาวน์โหลดแอพ Odaily พลาเน็ตเดลี่
ให้คนบางกลุ่มเข้าใจ Web3.0 ก่อน
IOS
Android