แนวคิดเรื่องปัญญาประดิษฐ์ที่โค่นล้มมนุษยชาติได้รับการถกเถียงกันมานานหลายทศวรรษ และในเดือนมกราคม 2021 นักวิทยาศาสตร์ได้ตัดสินว่าเราจะสามารถควบคุมคอมพิวเตอร์อัจฉริยะระดับสูงได้หรือไม่ ตอบกลับ? แทบไม่มีเลย
ปัญหาคือการควบคุม supermind ที่เกินกว่าความเข้าใจของมนุษย์จะต้องมีการจำลอง supermind นั้นที่เราสามารถวิเคราะห์ได้ แต่ถ้าเราไม่เข้าใจมันเป็นไปไม่ได้ที่จะสร้างแบบจำลองดังกล่าว
กฎเช่น "ไม่เป็นอันตรายต่อมนุษย์" ไม่สามารถกำหนดได้เว้นแต่เราจะเข้าใจว่าสถานการณ์ปัญญาประดิษฐ์ (AI) จะเกิดขึ้นอย่างไร ผู้เขียนรายงานปี 2021 เชื่อ ทันทีที่ระบบคอมพิวเตอร์ทำงานในระดับที่เกินความสามารถของโปรแกรมเมอร์ เราจะไม่สามารถกำหนดขีดจำกัดได้อีกต่อไป
นักวิจัยเขียนว่า "Superintelligence เป็นปัญหาที่แตกต่างจากปัญหาที่มักศึกษาภายใต้คำว่า 'จรรยาบรรณของหุ่นยนต์'" "นั่นเป็นเพราะว่า supermind นั้นมีหลายแง่มุม ดังนั้นจึงมีความเป็นไปได้ที่จะระดมทรัพยากรที่หลากหลายเพื่อให้บรรลุเป้าหมายที่มนุษย์ไม่อาจหยั่งรู้ได้ นับประสาอะไรกับการควบคุมได้"
เหตุผลส่วนหนึ่งของทีมมาจาก ปัญหาการหยุดชะงักเสนอโดย Alan Turing ในปี 1936 ความท้าทายคือการคิดให้ออกว่าโปรแกรมคอมพิวเตอร์จะมาถึงข้อสรุปและคำตอบ (และหยุด) หรือเพียงแค่พยายามค้นหาคำตอบตลอดไป
ดังที่ทัวริงพิสูจน์ด้วยความช่วยเหลือ คณิตศาสตร์อัจฉริยะแม้ว่าเราอาจทราบสิ่งนี้สำหรับโปรแกรมเฉพาะบางโปรแกรม แต่ก็เป็นไปไม่ได้ตามหลักเหตุผลที่จะหาวิธีที่จะช่วยให้เราทราบสิ่งนี้สำหรับโปรแกรมที่เป็นไปได้ทุกโปรแกรมที่สามารถเขียนได้ สิ่งนี้ทำให้เรากลับมาที่ AI ซึ่งในสถานะอัจฉริยะสามารถจัดเก็บโปรแกรมคอมพิวเตอร์ที่เป็นไปได้ทั้งหมดไว้ในหน่วยความจำของมันได้ในเวลาเดียวกัน
ที่น่าสนใจเช่นกัน:
ตัวอย่างเช่น โปรแกรมใดๆ ที่เขียนขึ้นเพื่อหยุด AI ไม่ให้ทำร้ายมนุษย์และทำลายโลก อาจมีหรือไม่สามารถบรรลุข้อสรุป (และหยุด) ได้ - เป็นไปไม่ได้ในทางคณิตศาสตร์ที่จะมีความแน่นอนอย่างใดอย่างหนึ่ง ซึ่งหมายความว่าไม่สามารถยับยั้งได้ "โดยพื้นฐานแล้วมันทำให้อัลกอริทึมการยับยั้งไม่สามารถใช้งานได้" นักวิทยาศาสตร์คอมพิวเตอร์ Iyad Rahwan จากสถาบัน Max Planck เพื่อการพัฒนามนุษย์ในเยอรมนีกล่าวในเดือนมกราคม
นักวิจัยกล่าวว่าอีกทางเลือกหนึ่งในการสอนจริยธรรม AI และข้อห้ามในการทำลายโลก ซึ่งไม่มีอัลกอริธึมใดสามารถมั่นใจได้อย่างแน่นอน คือการจำกัดความสามารถของ supermind ตัวอย่างเช่น อาจถูกตัดขาดจากบางส่วนของอินเทอร์เน็ตหรือบางเครือข่าย
ผู้เขียนของการศึกษาเมื่อเร็ว ๆ นี้ปฏิเสธแนวคิดนี้เช่นกัน โดยเชื่อว่ามันจะจำกัดขอบเขตของปัญญาประดิษฐ์ - พวกเขากล่าวว่า หากเราจะไม่ใช้มันเพื่อแก้ปัญหาที่เกินความสามารถของมนุษย์ แล้วทำไมถึงสร้างมันขึ้นมาเลย?
หากเรากำลังจะพัฒนาปัญญาประดิษฐ์ เราอาจไม่รู้ด้วยซ้ำว่าอัจฉริยะขั้นสูงจะปรากฏขึ้น ซึ่งอยู่นอกเหนือการควบคุมของเรา เป็นสิ่งที่หยั่งรู้ไม่ได้ด้วยซ้ำ ซึ่งหมายความว่าเราต้องเริ่มถามคำถามอย่างจริงจังเกี่ยวกับที่ที่เราจะไป
นักวิทยาศาสตร์คอมพิวเตอร์ Manuel Kebrian จากสถาบัน Max Planck เพื่อการพัฒนามนุษย์กล่าวว่า "เครื่องจักรที่ชาญฉลาดที่ขับเคลื่อนโลกดูเหมือนนิยายวิทยาศาสตร์ แต่มีเครื่องที่ทำหน้าที่สำคัญบางอย่างอย่างอิสระอยู่แล้ว ในขณะที่โปรแกรมเมอร์ไม่เข้าใจอย่างถ่องแท้ว่าพวกเขาเรียนรู้สิ่งนี้อย่างไร
จึงเกิดคำถามว่า ณ จุดใดจุดหนึ่งจะควบคุมไม่ได้และเป็นอันตรายต่อมนุษยชาติหรือไม่...
อ่าน:
- ปัญญาประดิษฐ์สามารถทำซ้ำภาพวาด Picasso ที่ทาสีแล้ว
- ปัญญาประดิษฐ์จะช่วยทำนายอุบัติเหตุบนท้องถนนก่อนเกิดขึ้น