Gradient เปิดตัว Echo-2 RL Framework เพิ่มประสิทธิภาพการวิจัย AI
Odaily กระจายข่าว AI Lab Gradient วันนี้เปิดตัว Echo-2 Distributed Reinforcement Learning Framework ซึ่งมีเป้าหมายเพื่อทำลายกำแพงประสิทธิภาพการฝึกฝนการวิจัย AI ด้วยการแยกตัวเรียนรู้ (Learner) และตัวแสดง (Actor) ออกจากกันอย่างสมบูรณ์ในระดับสถาปัตยกรรม Echo-2 ลดต้นทุนการฝึกหลัง (post-training) ของโมเดล 30B จาก 4,500 ดอลลาร์เหลือเพียง 425 ดอลลาร์อย่างรวดเร็ว ด้วยงบประมาณเท่ากัน ส่งผลให้ปริมาณงานวิจัยเพิ่มขึ้นมากกว่า 10 เท่า
เฟรมเวิร์กนี้ใช้เทคโนโลยีแยกการจัดเก็บและการคำนวณเพื่อการฝึกแบบอะซิงโครนัส (Async RL) โดยถ่ายโอนพลังการคำนวณการสุ่มตัวอย่างจำนวนมหาศาลไปยังอินสแตนซ์การ์ดจอที่ไม่เสถียรและฮีเทอโรจีนีอัสการ์ดจอที่ใช้ Parallax ร่วมกับความก้าวหน้าทางเทคโนโลยีอื่นๆ เช่น bounded staleness, instance fault-tolerant scheduling และ Lattica communication protocol ที่พัฒนาขึ้นเอง ในขณะที่รักษาความแม่นยำของโมเดล ก็ยังเพิ่มประสิทธิภาพการฝึกฝนอย่างมาก พร้อมกับการเปิดตัวเฟรมเวิร์ก Gradient กำลังจะเปิดตัวแพลตฟอร์ม RLaaS ที่ชื่อว่า Logits เพื่อส่งเสริมการเปลี่ยนแปลงกระบวนทัศน์การวิจัย AI จาก "การสะสมทุน" เป็น "การวนซ้ำประสิทธิภาพ" Logits ได้เปิดให้จองล่วงหน้าแล้วสำหรับนักเรียนและนักวิจัยทั่วโลก (logits.dev)
ตามรายงาน Gradient เป็นห้องปฏิบัติการ AI ที่ทุ่มเทให้กับการสร้างโครงสร้างพื้นฐานแบบกระจาย โดยมุ่งเน้นที่การฝึก การให้บริการ และการปรับใช้โมเดลขนาดใหญ่ล้ำสมัยแบบกระจาย
