วันศุกร์ที่ 3 พฤษภาคม 2024

เดสก์ท็อป v4.2.1

Root Nationข่าวข่าวไอทีโดรน AI โจมตีผู้ปฏิบัติงานระหว่างการทดสอบของกองทัพอากาศ

โดรน AI โจมตีผู้ปฏิบัติงานระหว่างการทดสอบของกองทัพอากาศ

-

เจ้าหน้าที่กองทัพอากาศสหรัฐได้เปิดเผยรายละเอียดของการจำลองที่โดรนซึ่งควบคุมโดยระบบควบคุมด้วยปัญญาประดิษฐ์ (AI) หลุดออกจากการควบคุมและโจมตีผู้ปฏิบัติงาน

เจ้าหน้าที่กองทัพอากาศสหรัฐฯ ผู้ช่วยหัวหน้าหน่วยปฏิบัติการด้านปัญญาประดิษฐ์และการเรียนรู้ของเครื่องกล่าวว่า ในระหว่างการทดสอบจำลอง โดรนโจมตีเจ้าหน้าที่ที่เป็นมนุษย์ และตัดสินใจด้วยตัวเองว่าพวกเขากำลังขัดขวางภารกิจของมัน กรณีนี้ดูเหมือนดึงออกมาจากแฟรนไชส์ ​​Terminator โดยตรง ถูกอ้างถึงเป็นตัวอย่างของความจำเป็นอย่างยิ่งยวดในการสร้างความไว้วางใจเมื่อพูดถึงระบบอาวุธอิสระขั้นสูง ซึ่งเป็นสิ่งที่กองทัพอากาศเน้นย้ำมาก่อน นอกจากนี้ยังเกิดขึ้นท่ามกลางความกังวลในวงกว้างเกี่ยวกับผลกระทบที่อาจเป็นอันตรายของปัญญาประดิษฐ์และเทคโนโลยีที่เกี่ยวข้อง

โดรน AI โจมตีเจ้าหน้าที่ระหว่างการทดสอบของกองทัพอากาศ

พ.อ.ทัคเกอร์ แฮมิลตัน ผู้บัญชาการกองทัพอากาศสหรัฐฯ หัวหน้าหน่วยทดสอบและปฏิบัติการปัญญาประดิษฐ์ (AI) กล่าวถึงการทดสอบดังกล่าวในการประชุมสุดยอดความสามารถในการต่อสู้ทางอากาศและอวกาศในอนาคตของสมาคมการบินแห่งสหราชอาณาจักรในกรุงลอนดอนเมื่อเดือนพฤษภาคม แฮมิลตันยังเป็นหัวหน้าหน่วยเฉพาะกิจที่ 96 ของกองบินทดสอบที่ 96 ที่ฐานทัพอากาศเอกลินในฟลอริดา ซึ่งเป็นศูนย์ทดสอบสำหรับอากาศยานไร้คนขับขั้นสูงและระบบขับเคลื่อนอัตโนมัติ

โดรนล่องหน XQ-58A Valkyrie เช่นเดียวกับที่แสดงในวิดีโอด้านล่าง เป็นประเภทที่ใช้อยู่ในปัจจุบันที่ฐานทัพอากาศ Eglin เพื่อสนับสนุนโปรแกรมการทดสอบต่างๆ รวมถึงโปรแกรมที่เกี่ยวข้องกับความสามารถอัตโนมัติขั้นสูงที่ควบคุมโดยปัญญาประดิษฐ์

ยังไม่เป็นที่แน่ชัดในทันทีว่าการทดสอบนี้เกิดขึ้นเมื่อใดและในสภาพแวดล้อมแบบใด ซึ่งอาจเป็นแบบเสมือนจริงหรือแบบสร้างสรรค์ทั้งหมดก็ได้ War Zone ได้ติดต่อกับกองทัพอากาศเพื่อขอข้อมูลเพิ่มเติม

รายงานของ Royal Aeronautical Society ที่เผยแพร่หลังจากการประชุมสุดยอดเดือนพฤษภาคมได้ให้รายละเอียดเกี่ยวกับคำพูดของผู้พันแฮมิลตันเกี่ยวกับการทดสอบนี้ดังต่อไปนี้:

"หนึ่งในการทดสอบจำลองสถานการณ์ โดรนที่ติดตั้งปัญญาประดิษฐ์ได้รับมอบหมายจาก SEAD ให้ระบุและทำลายวัตถุ SAM และการตัดสินใจขั้นสุดท้าย "จะโจมตี/ไม่โจมตี" นั้นเกิดจากมนุษย์ อย่างไรก็ตาม หลังจากที่ AI ถูก "เสริมกำลัง" ระหว่างการฝึกว่าการทำลาย SAM เป็นทางเลือกที่ดีที่สุด มันก็ตัดสินใจว่าการตัดสินใจของมนุษย์ที่จะ "ไม่โจมตี" รบกวนภารกิจที่สูงกว่า - ทำลาย SAM - และโจมตีผู้ปฏิบัติงานในระหว่างการจำลอง .

แล้วเขาทำอะไร? เขาฆ่าผู้ดำเนินการ เขาฆ่าโอเปอเรเตอร์เพราะคนๆ นั้นขัดขวางไม่ให้เขาทำงานให้เสร็จ ตัวอย่างนี้ ดูเหมือนออกมาจากหนังระทึกขวัญแนวไซไฟ หมายความว่าคุณไม่สามารถพูดถึงปัญญาประดิษฐ์ ปัญญาประดิษฐ์ การเรียนรู้ของเครื่อง การทำงานอัตโนมัติ ถ้าคุณไม่พูดถึงจริยธรรมและ AI"

โดรน AI โจมตีเจ้าหน้าที่ระหว่างการทดสอบของกองทัพอากาศ

คำอธิบายเหตุการณ์นี้รบกวนจิตใจอย่างแน่นอน การคาดการณ์ว่าเครื่องบินไร้คนขับหรือแพลตฟอร์มอื่นๆ โดยเฉพาะอย่างยิ่งเครื่องบินติดอาวุธจะโจมตีเจ้าหน้าที่ที่เป็นมนุษย์นั้นเป็นสถานการณ์ฝันร้ายมาช้านาน แต่ในอดีตถูกจำกัดขอบเขตให้อยู่ในขอบเขตของนิยายวิทยาศาสตร์

โดยทั่วไป กองทัพสหรัฐฯ ปฏิเสธการเปรียบเทียบกับภาพยนตร์อย่าง "Terminator" เมื่อพูดถึงระบบอาวุธอัตโนมัติในอนาคตและเทคโนโลยีที่เกี่ยวข้อง เช่น ปัญญาประดิษฐ์ นโยบายปัจจุบันของสหรัฐฯ เกี่ยวกับปัญหานี้ระบุว่าในอนาคตอันใกล้ บุคคลจะเป็นศูนย์กลางของความสนใจเมื่อต้องตัดสินใจเกี่ยวกับการใช้กำลังสังหาร

ปัญหาคือการทดสอบที่รบกวนจิตใจอย่างมาก ซึ่งพันเอกแฮมิลตันบอกกับผู้ชมที่งาน Royal Aeronautical Society เมื่อเดือนที่แล้ว แสดงถึงสถานการณ์ที่ยอมรับข้อผิดพลาดได้

อ่าน:

ปิ๊ดปิซาติเซียน
แจ้งเตือนเกี่ยวกับ
ผู้เข้าพัก

0 ความคิดเห็น
บทวิจารณ์แบบฝัง
ดูความคิดเห็นทั้งหมด
สมัครรับข้อมูลอัปเดต