วันพฤหัสบดีที่ 2 พฤษภาคม 2024

เดสก์ท็อป v4.2.1

Root Nationข่าวข่าวไอทีผู้เชี่ยวชาญด้านเทคโนโลยีเรียกร้องให้หยุดการทดลอง AI

ผู้เชี่ยวชาญด้านเทคโนโลยีเรียกร้องให้หยุดการทดลอง AI

-

ผู้นำด้านเทคโนโลยีและนักวิจัย AI ที่โดดเด่นได้ลงนาม จดหมายเปิดผนึกซึ่งเรียกร้องให้ห้องปฏิบัติการ AI และบริษัทต่างๆ "ระงับ" การทำงานของพวกเขาทันที

ผู้ลงนามซึ่งรวมถึง Steve Wozniak และ Elon Musk ยอมรับว่าความเสี่ยงดังกล่าวจำเป็นต้องหยุดการผลิตเทคโนโลยีที่อยู่นอกเหนือขอบเขตอย่างน้อยหกเดือน จีพีที-4. นี่คือการได้รับความสุขและความพึงพอใจจากระบบ AI ที่มีอยู่ในขณะนี้ และเพื่อให้ผู้คนปรับตัวเข้ากับพวกเขาและเห็นว่ามันมีประโยชน์

ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญเรียกร้องให้หยุดการทดลอง AI

จดหมายดังกล่าวเสริมว่าจำเป็นต้องมีความระมัดระวังและการไตร่ตรองล่วงหน้าเพื่อรับรองความปลอดภัยของระบบ AI แต่กลับถูกเพิกเฉย การอ้างอิงถึง GPT-4 ซึ่งเป็นโมเดล OpenAI ใหม่ที่สามารถตอบสนองด้วยข้อความในข้อความที่เป็นลายลักษณ์อักษรหรือภาพ เกิดขึ้นในขณะที่บริษัทต่างๆ แข่งขันกันเพื่อสร้างระบบแชทที่ซับซ้อนโดยใช้เทคโนโลยี ตัวอย่าง, Microsoft เพิ่งยืนยันว่าเครื่องมือค้นหา Bing ที่อัปเดตนั้นทำงานบนรุ่น GPT-4 มานานกว่า 7 สัปดาห์แล้ว และ Google เพิ่งเปิดตัวอย่างเป็นทางการ นักประพันธ์เพลง – เป็นเจ้าของระบบปัญญาประดิษฐ์เชิงกำเนิดบนพื้นฐานของ LaMDA

ความกังวลเกี่ยวกับ AI มีมาช้านาน แต่การแข่งขันเพื่อนำเทคโนโลยีขั้นสูงสุดมาใช้นั้นเห็นได้ชัด ปัญญาประดิษฐ์ อย่างแรกนั้นน่าตกใจอยู่แล้ว “ในช่วงหลายเดือนที่ผ่านมา ห้องปฏิบัติการ AI ต่างยุ่งเหยิงในการแข่งขันที่ไม่มีการควบคุมเพื่อพัฒนาและนำจิตใจดิจิทัลที่ทรงพลังมากขึ้นเรื่อยๆ มาใช้ ซึ่งไม่มีใคร แม้แต่ผู้เขียนก็สามารถเข้าใจ ทำนาย หรือควบคุมได้อย่างน่าเชื่อถือ” จดหมายระบุ

ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญเรียกร้องให้หยุดการทดลอง AI

จดหมายดังกล่าวเผยแพร่โดยองค์กรไม่แสวงหาผลกำไร Future of Life Institute (FLI) ซึ่งทำงานเพื่อลดความเสี่ยงจากภัยพิบัติและความเสี่ยงที่เกิดขึ้นทั่วโลก และการใช้เทคโนโลยีใหม่ในทางที่ผิด โดยเฉพาะ AI ก่อนหน้านี้ Musk ได้บริจาคเงิน 10 ล้านดอลลาร์ให้กับ FLI เพื่อการวิจัยด้านความปลอดภัยของ AI นอกเหนือจากเขาและ Wozniak แล้ว ผู้ลงนามยังรวมถึงผู้นำระดับโลกหลายคนในด้าน AI เช่น Mark Rothenberg ประธาน Center for AI และนโยบายดิจิทัล นักฟิสิกส์ของ MIT และประธาน FLI Max Tegmark และผู้เขียน Yuval Noah Harari

Harari ยังได้ร่วมเขียน op-ed ใน New York Times เมื่อสัปดาห์ที่แล้วเพื่อเตือนถึงความเสี่ยงที่เกี่ยวข้อง ปัญญาประดิษฐ์ซึ่งผู้ก่อตั้ง Center for Humane Technologies และผู้ลงนามในจดหมายเปิดผนึกคนอื่นๆ คือ Tristan Harris และ Aza Raskin ทำงานร่วมกับเขา

การโทรดังกล่าวเกิดขึ้นหลังจากการสำรวจเมื่อปีที่แล้วโดยนักวิจัยด้านแมชชีนเลิร์นนิงมากกว่า 700 คน ซึ่งเกือบครึ่งหนึ่งกล่าวว่ามีโอกาสประมาณ 10% ที่จะเกิด "ผลลัพธ์ที่เลวร้ายอย่างมาก" จาก AI รวมถึงการสูญพันธุ์ของมนุษย์ เมื่อถามเกี่ยวกับการรักษาความปลอดภัยในการวิจัย AI 68% ของผู้ตอบแบบสอบถามกล่าวว่าต้องทำมากกว่านี้หรือมากกว่านี้

อ่าน:

DzhereloEngadget
ปิ๊ดปิซาติเซียน
แจ้งเตือนเกี่ยวกับ
ผู้เข้าพัก

0 ความคิดเห็น
บทวิจารณ์แบบฝัง
ดูความคิดเห็นทั้งหมด
สมัครรับข้อมูลอัปเดต