วันศุกร์ที่ 3 พฤษภาคม 2024

เดสก์ท็อป v4.2.1

Root Nationข่าวข่าวไอทีเป็นไปไม่ได้เลยที่จะจัดการปัญญาประดิษฐ์ที่ชาญฉลาดสุด ๆ

เป็นไปไม่ได้เลยที่จะจัดการปัญญาประดิษฐ์ที่ชาญฉลาดสุด ๆ

-

แนวคิดเรื่องปัญญาประดิษฐ์ที่โค่นล้มมนุษยชาติได้รับการถกเถียงกันมานานหลายทศวรรษ และในเดือนมกราคม 2021 นักวิทยาศาสตร์ได้ตัดสินว่าเราจะสามารถควบคุมคอมพิวเตอร์อัจฉริยะระดับสูงได้หรือไม่ ตอบกลับ? แทบไม่มีเลย

ปัญหาคือการควบคุม supermind ที่เกินกว่าความเข้าใจของมนุษย์จะต้องมีการจำลอง supermind นั้นที่เราสามารถวิเคราะห์ได้ แต่ถ้าเราไม่เข้าใจมันเป็นไปไม่ได้ที่จะสร้างแบบจำลองดังกล่าว

กฎเช่น "ไม่เป็นอันตรายต่อมนุษย์" ไม่สามารถกำหนดได้เว้นแต่เราจะเข้าใจว่าสถานการณ์ปัญญาประดิษฐ์ (AI) จะเกิดขึ้นอย่างไร ผู้เขียนรายงานปี 2021 เชื่อ ทันทีที่ระบบคอมพิวเตอร์ทำงานในระดับที่เกินความสามารถของโปรแกรมเมอร์ เราจะไม่สามารถกำหนดขีดจำกัดได้อีกต่อไป

ปัญญาประดิษฐ์

นักวิจัยเขียนว่า "Superintelligence เป็นปัญหาที่แตกต่างจากปัญหาที่มักศึกษาภายใต้คำว่า 'จรรยาบรรณของหุ่นยนต์'" "นั่นเป็นเพราะว่า supermind นั้นมีหลายแง่มุม ดังนั้นจึงมีความเป็นไปได้ที่จะระดมทรัพยากรที่หลากหลายเพื่อให้บรรลุเป้าหมายที่มนุษย์ไม่อาจหยั่งรู้ได้ นับประสาอะไรกับการควบคุมได้"

เหตุผลส่วนหนึ่งของทีมมาจาก ปัญหาการหยุดชะงักเสนอโดย Alan Turing ในปี 1936 ความท้าทายคือการคิดให้ออกว่าโปรแกรมคอมพิวเตอร์จะมาถึงข้อสรุปและคำตอบ (และหยุด) หรือเพียงแค่พยายามค้นหาคำตอบตลอดไป

ดังที่ทัวริงพิสูจน์ด้วยความช่วยเหลือ คณิตศาสตร์อัจฉริยะแม้ว่าเราอาจทราบสิ่งนี้สำหรับโปรแกรมเฉพาะบางโปรแกรม แต่ก็เป็นไปไม่ได้ตามหลักเหตุผลที่จะหาวิธีที่จะช่วยให้เราทราบสิ่งนี้สำหรับโปรแกรมที่เป็นไปได้ทุกโปรแกรมที่สามารถเขียนได้ สิ่งนี้ทำให้เรากลับมาที่ AI ซึ่งในสถานะอัจฉริยะสามารถจัดเก็บโปรแกรมคอมพิวเตอร์ที่เป็นไปได้ทั้งหมดไว้ในหน่วยความจำของมันได้ในเวลาเดียวกัน

ที่น่าสนใจเช่นกัน:

ตัวอย่างเช่น โปรแกรมใดๆ ที่เขียนขึ้นเพื่อหยุด AI ไม่ให้ทำร้ายมนุษย์และทำลายโลก อาจมีหรือไม่สามารถบรรลุข้อสรุป (และหยุด) ได้ - เป็นไปไม่ได้ในทางคณิตศาสตร์ที่จะมีความแน่นอนอย่างใดอย่างหนึ่ง ซึ่งหมายความว่าไม่สามารถยับยั้งได้ "โดยพื้นฐานแล้วมันทำให้อัลกอริทึมการยับยั้งไม่สามารถใช้งานได้" นักวิทยาศาสตร์คอมพิวเตอร์ Iyad Rahwan จากสถาบัน Max Planck เพื่อการพัฒนามนุษย์ในเยอรมนีกล่าวในเดือนมกราคม

นักวิจัยกล่าวว่าอีกทางเลือกหนึ่งในการสอนจริยธรรม AI และข้อห้ามในการทำลายโลก ซึ่งไม่มีอัลกอริธึมใดสามารถมั่นใจได้อย่างแน่นอน คือการจำกัดความสามารถของ supermind ตัวอย่างเช่น อาจถูกตัดขาดจากบางส่วนของอินเทอร์เน็ตหรือบางเครือข่าย

ผู้เขียนของการศึกษาเมื่อเร็ว ๆ นี้ปฏิเสธแนวคิดนี้เช่นกัน โดยเชื่อว่ามันจะจำกัดขอบเขตของปัญญาประดิษฐ์ - พวกเขากล่าวว่า หากเราจะไม่ใช้มันเพื่อแก้ปัญหาที่เกินความสามารถของมนุษย์ แล้วทำไมถึงสร้างมันขึ้นมาเลย?

ปัญญาประดิษฐ์

หากเรากำลังจะพัฒนาปัญญาประดิษฐ์ เราอาจไม่รู้ด้วยซ้ำว่าอัจฉริยะขั้นสูงจะปรากฏขึ้น ซึ่งอยู่นอกเหนือการควบคุมของเรา เป็นสิ่งที่หยั่งรู้ไม่ได้ด้วยซ้ำ ซึ่งหมายความว่าเราต้องเริ่มถามคำถามอย่างจริงจังเกี่ยวกับที่ที่เราจะไป

นักวิทยาศาสตร์คอมพิวเตอร์ Manuel Kebrian จากสถาบัน Max Planck เพื่อการพัฒนามนุษย์กล่าวว่า "เครื่องจักรที่ชาญฉลาดที่ขับเคลื่อนโลกดูเหมือนนิยายวิทยาศาสตร์ แต่มีเครื่องที่ทำหน้าที่สำคัญบางอย่างอย่างอิสระอยู่แล้ว ในขณะที่โปรแกรมเมอร์ไม่เข้าใจอย่างถ่องแท้ว่าพวกเขาเรียนรู้สิ่งนี้อย่างไร

จึงเกิดคำถามว่า ณ จุดใดจุดหนึ่งจะควบคุมไม่ได้และเป็นอันตรายต่อมนุษยชาติหรือไม่...

อ่าน:

ปิ๊ดปิซาติเซียน
แจ้งเตือนเกี่ยวกับ
ผู้เข้าพัก

0 ความคิดเห็น
บทวิจารณ์แบบฝัง
ดูความคิดเห็นทั้งหมด
สมัครรับข้อมูลอัปเดต