ปัญญาประดิษฐ์จะช่วยมนุษยชาติ—หรือจะทำลายมัน?

Decrypt

สั้นๆ

  • คณะอภิปรายออนไลน์แสดงให้เห็นความแตกแยกอย่างลึกซึ้งระหว่างนักแปลงร่างและเทคโนโลยีเกี่ยวกับ AGI
  • ผู้เขียน Eliezer Yudkowsky เตือนว่า ระบบ AI “กล่องดำ” ในปัจจุบันทำให้การสูญพันธุ์เป็นผลลัพธ์ที่หลีกเลี่ยงไม่ได้
  • Max More โต้แย้งว่าการชะลอการพัฒนา AGI อาจทำให้มนุษยชาติเสียโอกาสที่ดีที่สุดในการเอาชนะความชราและป้องกันภัยพิบัติระยะยาว

ความแตกแยกอย่างรุนแรงเกี่ยวกับอนาคตของปัญญาประดิษฐ์แสดงให้เห็นในสัปดาห์นี้ ขณะที่นักเทคโนโลยีและนักแปลงร่างที่มีชื่อเสียงสี่คนอภิปรายกันว่า การสร้างปัญญาประดิษฐ์ทั่วไป หรือ AGI จะช่วยมนุษยชาติหรือทำลายมัน คณะอภิปรายที่จัดโดยองค์กรไม่แสวงหาผลกำไร Humanity+ ได้รวบรวมหนึ่งในนัก AI “ผู้ทำนายหายนะ” ที่เสียงดังที่สุดอย่าง Eliezer Yudkowsky ซึ่งเรียกร้องให้ปิดการพัฒนา AI ขั้นสูง พร้อมกับนักปรัชญาและนักอนาคตศาสตร์ Max More, นักประสาทวิทยาคอมพิวเตอร์ Anders Sandberg และประธานาธิบดีเกษียณของ Humanity+ Natasha Vita‑More การอภิปรายของพวกเขาเปิดเผยความไม่เห็นด้วยพื้นฐานว่า AGI สามารถปรับให้สอดคล้องกับความอยู่รอดของมนุษย์ได้หรือไม่ หรือว่าการสร้างมันจะทำให้การสูญพันธุ์เป็นสิ่งหลีกเลี่ยงไม่ได้ ปัญหา “กล่องดำ”

Yudkowsky เตือนว่าระบบ AI สมัยใหม่มีความไม่ปลอดภัยอย่างรุนแรง เพราะกระบวนการตัดสินใจภายในของมันไม่สามารถเข้าใจหรือควบคุมได้อย่างสมบูรณ์ “อะไรก็ตามที่เป็นกล่องดำ น่าจะมีปัญหาใกล้เคียงกับเทคโนโลยีในปัจจุบัน” Yudkowsky เตือน เขาแย้งว่ามนุษยชาติต้องก้าวไป “ไกลมากๆ จากแนวคิดเดิม” ก่อนที่จะพัฒนา AI ขั้นสูงได้อย่างปลอดภัย  ปัญญาประดิษฐ์ทั่วไปหมายถึงรูปแบบของ AI ที่สามารถคิดและเรียนรู้ในหลากหลายงาน แทนที่จะถูกสร้างขึ้นเพื่อภารกิจเดียว เช่น การสร้างข้อความ รูปภาพ หรือวิดีโอ AGI มักเกี่ยวข้องกับแนวคิดของเอกภาพทางเทคโนโลยี เพราะการเข้าถึงระดับความฉลาดนั้นอาจทำให้เครื่องจักรสามารถปรับปรุงตัวเองได้เร็วกว่ามนุษย์ Yudkowsky ชี้ให้เห็นถึงอุปมา “ผู้เพิ่มความยาวกระดาษคลิป” ซึ่งเป็นแนวคิดที่ได้รับความนิยมจากนักปรัชญา Nick Bostrom เพื่อแสดงความเสี่ยง การทดลองสมมุตินี้มี AI สมมุติที่เปลี่ยนทุกวัตถุที่มีอยู่เป็นคลิปกระดาษ ซึ่งเป็นการเน้นเป้าหมายเดียวโดยไม่สนใจมนุษยชาติ การเพิ่มเป้าหมายอื่นๆ เข้ากับ AI ก็ไม่ช่วยปรับปรุงความปลอดภัยอย่างมีนัยสำคัญ

โดยอ้างอิงชื่อหนังสือของเขาเกี่ยวกับ AI เรื่อง “ถ้าใครสร้างมันขึ้นมา ทุกคนก็ต้องตาย” เขากล่าวว่า “ชื่อของเราไม่ได้หมายความว่า อาจ ทำให้คุณตาย” Yudkowsky กล่าว “ชื่อของเราคือ ถ้าใครสร้างมันขึ้นมา ทุกคน ก็ต้องตาย” แต่ More โต้แย้งสมมุติฐานว่าความระมัดระวังอย่างสุดขีดเป็นวิธีที่ปลอดภัยที่สุด เขาแย้งว่า AGI อาจเป็นโอกาสดีที่สุดของมนุษยชาติในการเอาชนะความชราและโรค “สิ่งที่สำคัญที่สุดสำหรับผมคือ AGI อาจช่วยให้เราป้องกันการสูญพันธุ์ของทุกคนที่ยังมีชีวิตอยู่เนื่องจากความชรา” More กล่าว “เราทุกคนกำลังจะตาย เรากำลังมุ่งหน้าไปสู่ภัยพิบัติ ทีละคน” เขาเตือนว่าการควบคุมอย่างเข้มงวดเกินไปอาจผลักดันให้รัฐบาลกลายเป็นเผด็จการเพื่อหยุดการพัฒนา AI ทั่วโลก Sandberg วางตัวอยู่ระหว่างสองฝ่าย โดยอธิบายตัวเองว่า “มีความหวังมากขึ้น” ในขณะที่ยังคงระมัดระวังมากกว่านักแปลงร่างที่มองในแง่ดี เขาเล่าประสบการณ์ส่วนตัวที่เกือบใช้โมเดลภาษาขนาดใหญ่เพื่อช่วยในการออกแบบอาวุธชีวภาพ ซึ่งเขาเรียกเหตุการณ์นี้ว่า “น่ากลัว” “เรากำลังเข้าใกล้จุดที่การเพิ่มพูนผู้ไม่หวังดีจะสร้างความวุ่นวายอย่างมหาศาล” Sandberg กล่าว แต่เขาแย้งว่าความปลอดภัยแบบบางส่วนหรือ “ประมาณ” อาจเป็นไปได้ เขาปฏิเสธแนวคิดว่าความปลอดภัยต้องสมบูรณ์แบบจึงจะมีความหมาย โดยเสนอว่ามนุษย์อย่างน้อยก็สามารถบรรลุค่านิยมร่วมขั้นต่ำ เช่น การอยู่รอด “ดังนั้นถ้าคุณเรียกร้องความปลอดภัยที่สมบูรณ์แบบ คุณจะไม่ได้มัน และจากมุมมองนั้น ฟังดูแย่มาก” เขากล่าว “ในอีกด้านหนึ่ง ผมคิดว่าเราสามารถมีความปลอดภัยประมาณได้ ซึ่งก็เพียงพอแล้ว” ความสงสัยเกี่ยวกับการปรับให้สอดคล้อง

Vita-More วิจารณ์การถกเถียงเรื่องการปรับให้สอดคล้องโดยรวมเอง โดยแย้งว่าคอนเซปต์นี้สมมุติว่ามีฉันทามติในระดับหนึ่ง ซึ่งในความเป็นจริงแล้วไม่มีแม้แต่ในกลุ่มผู้ร่วมงานที่คบหากันมานาน “แนวคิดเรื่องการปรับให้สอดคล้องเป็นแผน Pollyanna” เธอกล่าว “มันจะไม่มีวันสอดคล้องกันเลย ฉันหมายความว่า แม้แต่ที่นี่ เรายังเป็นคนดี เรารู้จักกันมาหลายสิบปี และเราก็ไม่ได้สอดคล้องกัน”

เธออธิบายคำกล่าวของ Yudkowsky ที่ว่า AGI จะฆ่าทุกคนในที่สุดว่าเป็น “ความคิดแบบสุดโต่ง” ที่ไม่เปิดโอกาสให้มีผลลัพธ์อื่น “ฉันมีปัญหากับคำกล่าวที่ว่าทุกคนจะตาย” เธอกล่าว “การมองเรื่องนี้ในฐานะนักอนาคตศาสตร์และนักคิดเชิงปฏิบัติ มันไม่เหลือผลกระทบ ไม่มีทางเลือก ไม่มีสถานการณ์อื่น มันเป็นเพียงคำกล่าวหยาบๆ และฉันสงสัยว่ามันสะท้อนความคิดแบบสุดโต่งหรือไม่” การอภิปรายรวมถึงการถกเถียงว่า การบูรณาการระหว่างมนุษย์และเครื่องจักรอย่างใกล้ชิดอาจช่วยลดความเสี่ยงที่ AGI ก่อขึ้น—สิ่งที่ CEO Tesla Elon Musk เคยเสนอในอดีต Yudkowsky ปฏิเสธแนวคิดการรวมตัวกับ AI โดยเปรียบเทียบกับ “พยายามรวมตัวกับเตาอบเครื่องปิ้งขนมปัง” Sandberg และ Vita-More โต้แย้งว่า เมื่อระบบ AI มีความสามารถมากขึ้น มนุษย์จะต้องบูรณาการหรือรวมตัวกับมันให้ใกล้ชิดมากขึ้นเพื่อรับมือกับโลกหลัง AGI “การสนทนาทั้งหมดนี้เป็นการตรวจสอบความเป็นจริงเกี่ยวกับว่าเราเป็นใครในฐานะมนุษย์” Vita-More กล่าว

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น