0G Labs สร้างระบบ AI แบบกระจายเพื่อรับประกันความโปร่งใสและความไว้วางใจ

BlockChainReporter
0G3.01%

ปัญญาประดิษฐ์ (AI) กำลังแพร่หลายไปยังภาคส่วนต่างๆ เช่น การเงินและการดูแลสุขภาพ ซึ่งความโปร่งใสและความเชื่อถือได้มีความสำคัญ ระบบ AI ที่รวมศูนย์ปัจจุบันถูกวิจารณ์เกี่ยวกับการขาดการติดตามข้อมูลและความไม่โปร่งใสของโมเดลของพวกเขา ไมเคิล ไฮน์ริช ประธานเจ้าหน้าที่บริหาร (CEO) ที่ 0G Labs ตั้งใจที่จะแก้ไขปัญหาเหล่านี้โดยการสร้างโครงสร้างพื้นฐาน AI แบบกระจายศูนย์ เขามีความสนใจในการเชื่อมต่อข้อมูลเกี่ยวกับการฝึกอบรมบน-chain พร้อมกับหลักฐานทางเข้ารหัสเพื่อทำให้มันโปร่งใสและหลีกเลี่ยงข้อมูลที่ไม่ถูกต้อง.

0G มองเห็นอนาคตที่ปัญญาประดิษฐ์แบบกระจายอำนาจขับเคลื่อนความอุดมสมบูรณ์ ความโปร่งใส และความยุติธรรม โดยการยึดข้อมูลในแบบ on-chain และทำให้การคำนวณเป็นประชาธิปไตย DeAIOS ของ 0G อาจปลดล็อกสังคมที่ไม่มีความขาดแคลนซึ่ง AI จะให้บริการทุกคน @michaelh_0g อธิบายว่าอย่างไร👇

— 0G Labs (บ้านของ AI อันไม่มีที่สิ้นสุด ) (@0G_labs ) 3 พฤศจิกายน 2025

ไฮน์ริชเน้นว่าความแม่นยำของโมเดลขึ้นอยู่กับชุดข้อมูลที่มีคุณภาพสูงและสามารถติดตามได้ หากไม่มีแหล่งที่มาของข้อมูลที่เชื่อถือได้ ระบบ AI จะมีแนวโน้มที่จะเกิดภาพหลอนและอคติมากขึ้น โมเดลแบบกระจายที่เสนอมีการติดตามข้อมูลที่ไม่เปลี่ยนแปลง ซึ่งเสนอการบันทึกที่สามารถตรวจสอบได้ของแหล่งข้อมูลและการอัปเดต ระบบนี้ช่วยให้การใช้งาน AI สามารถรักษาความสมบูรณ์และความเชื่อถือได้ในชุดข้อมูลที่พัฒนาอย่างต่อเนื่อง

0G Labs เสนอ ตลาดคอมพิวเตอร์ที่สามารถปรับขนาดได้และราคาไม่แพง

0G Labs ของ Heinrich กำลังสร้างระบบปฏิบัติการ AI แบบกระจายศูนย์ที่เรียกว่า (DeAIOS) ซึ่งให้การจัดเก็บข้อมูลที่สามารถขยายได้บน-chain สำหรับชุดข้อมูล AI ขนาดใหญ่และช่วยให้สามารถตรวจสอบความเป็นเจ้าของได้ ระบบนี้ยังมีตลาดคอมพิวเตอร์ที่ไม่ต้องขออนุญาตซึ่งมุ่งหมายที่จะลบบริการคลาวด์แบบรวมศูนย์และลดค่าใช้จ่ายในการพัฒนาให้ต่ำที่สุด

มิฉะนั้น 0G Labs ได้รับการปรับปรุงประสิทธิภาพอย่างมากในการฝึกอบรมโมเดล AI ขนาดใหญ่ผ่านกรอบงาน Dilocox ด้วยวิธีนี้สามารถฝึกอบรมโมเดลภาษาที่มีพารามิเตอร์ 100 พันล้านด้วยคลัสเตอร์แบบกระจาย บริษัทกล่าวว่าวิธีนี้ได้เพิ่มประสิทธิภาพการฝึกอบรมมากกว่า 350 เท่าเมื่อเปรียบเทียบกับวิธีดั้งเดิม.

การออกแบบที่มีรางวัลและการเข้าถึงแบบเปิดสู่การใช้ MitiGate อย่างไม่ถูกต้อง

เพื่อเอาชนะปัญหาของเทคโนโลยี AI รวมถึงการสร้างภาพลวงตาและการทำซ้ำเสียง 0G Labs เน้นย้ำถึงปัญหาของการรับรู้ของมนุษย์และสถาปัตยกรรมของระบบ ในหมู่ส่วนสำคัญในการป้องกันการใช้งานที่เป็นอันตราย มีการศึกษาเพื่อสาธารณะและมาตรฐานระดับโลก อย่างไรก็ตาม ระบบแบบกระจายที่อยู่ภายใน 0G Labs ยังมีการลงโทษต่อการกระทำที่เป็นอันตรายโดยระบบการตัดการเงิน

เหตุผลที่ Heinrich สนับสนุนโมเดล AI แบบเปิดคือการจัดเตรียมกลไกการควบคุมแบบเปิดและลดความเสี่ยงที่เกี่ยวข้องกับระบบกล่องดำ บันทึกการฝึกอบรมแบบเปิดและบันทึกที่ไม่สามารถเปลี่ยนแปลงได้จะช่วยให้ชุมชนรู้และติดตามว่ามีการสร้างและใช้โมเดลอย่างไร เนื่องจาก 0G Labs จะปรับแนวทางผลประโยชน์และส่งเสริมกระบวนการพัฒนาที่ร่วมมือกัน จะช่วยลดอำนาจของการผูกขาดและอนุญาตให้มีนวัตกรรม AI ที่ปลอดภัยมากขึ้น

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น