วันศุกร์ที่ 3 พฤษภาคม 2024

เดสก์ท็อป v4.2.1

Root Nationบทความอะนาลิติคาบัญญัติหกประการของปัญญาประดิษฐ์

บัญญัติหกประการของปัญญาประดิษฐ์

-

ในปีต่อๆ ไปจะมีการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ อาจจำเป็นต้องแนะนำกรอบการทำงานที่กำหนดไว้อย่างชัดเจนสำหรับการสร้างและใช้งาน AI? ประสบการณ์ 6 เดือนเพียงพอที่จะควบคุมเทคโนโลยีที่ยังไม่ออกจากห้องทดลองหรือไม่? คำถามนี้มาจากปากของผู้เชี่ยวชาญและนักข่าวมากขึ้นเรื่อยๆ เมื่อพูดถึงปัญญาประดิษฐ์ เสียงและการเรียกร้องให้ใช้มาตรการควบคุมปัญญาประดิษฐ์ - ทั้งในระดับผู้ใช้และระดับการพัฒนาโครงการ - กำลังได้ยินบ่อยขึ้นเรื่อย ๆ ประวัติความเป็นมาของการอุทธรณ์ดังกล่าวเริ่มขึ้นเมื่อนานมาแล้ว

การมีอยู่ของปัญญาประดิษฐ์อย่างแพร่หลายในพื้นที่ดิจิทัล และเหนือสิ่งอื่นใด แบบจำลองที่สามารถสร้างเนื้อหาได้ไม่ต่างจากที่สร้างขึ้นโดยมนุษย์ ทำให้เกิดอารมณ์ที่แตกต่างกันมาก ในแง่หนึ่ง เรามีกลุ่มผู้ที่ชื่นชอบซึ่งมองเห็นอนาคตของ AI และแม้ว่าจะมีความสามารถค่อนข้างจำกัด (เนื่องจาก AI ไม่คิด และมักจะรับข้อมูลจากอินเทอร์เน็ต) ก็ไม่กลัวที่จะมอบหมายงานมากมายให้กับมัน . ในอีกด้านหนึ่งของสิ่งกีดขวางคือกลุ่มที่แสดงความสงสัยและกังวลเกี่ยวกับแนวโน้มการพัฒนาปัญญาประดิษฐ์ในปัจจุบัน

AI ตั้งสมมุติฐาน

สะพานเชื่อมระหว่างทั้งสองกลุ่มคือนักวิจัยด้านปัญญาประดิษฐ์ ซึ่งในด้านหนึ่งได้ยกตัวอย่างมากมายว่าปัญญาประดิษฐ์มีผลกระทบเชิงบวกต่อความเป็นจริงโดยรอบอย่างไร ในขณะเดียวกัน พวกเขาเข้าใจว่ายังเร็วเกินไปที่จะพักผ่อนตามสมควร และการก้าวกระโดดทางเทคโนโลยีครั้งใหญ่นำมาซึ่งความท้าทายและความรับผิดชอบที่ยิ่งใหญ่ ตัวอย่างที่ชัดเจนของทัศนคตินี้คือกลุ่มนักวิจัยด้านปัญญาประดิษฐ์และแมชชีนเลิร์นนิงระดับนานาชาติ นำโดย Dr. Ozlem Garibay จาก University of Central Florida สิ่งพิมพ์ 47 หน้าที่เขียนโดยนักวิทยาศาสตร์ 26 คนจากทั่วโลก ระบุและอธิบายถึงความท้าทาย XNUMX ประการที่สถาบันวิจัย บริษัท และบริษัทต่างๆ ต้องจัดการเพื่อทำให้แบบจำลองของตน (และซอฟต์แวร์ที่ใช้งาน) มีความปลอดภัย

ใช่ นี่เป็นงานทางวิทยาศาสตร์ที่จริงจังพร้อมคำอธิบายที่สำคัญในการทำความเข้าใจอนาคตของปัญญาประดิษฐ์ ใครสนใจสามารถได้อย่างอิสระ อ่านรายงานทางวิทยาศาสตร์นี้ และหาข้อสรุปของคุณเอง พูดง่ายๆ นักวิทยาศาสตร์ได้ระบุบัญญัติ 6 ประการของปัญญาประดิษฐ์ การพัฒนาและการดำเนินการของ AI ทั้งหมดต้องเป็นไปตามนั้นจึงจะปลอดภัยสำหรับผู้คนและโลก

AI ตั้งสมมุติฐาน

ในบทความของฉันซึ่งเขียนขึ้นอย่างแม่นยำบนพื้นฐานของงานทางวิทยาศาสตร์นี้ ฉันจะพยายามกำหนดหลักการหลัก กฎหมายตามที่ปัญญาประดิษฐ์ควรมีอยู่และพัฒนา ใช่ นี่คือการตีความข้อสรุปของนักวิทยาศาสตร์เกี่ยวกับการพัฒนาปัญญาประดิษฐ์ที่เกือบจะเป็นอิสระของฉัน และความพยายามที่จะนำเสนอมันในรูปแบบพระคัมภีร์ไบเบิล แต่นี่คือวิธีที่ฉันต้องการแนะนำคุณให้รู้จักกับผลงานทางวิทยาศาสตร์ของนักวิทยาศาสตร์ที่น่านับถือ

ที่น่าสนใจเช่นกัน: การสร้าง AI: ใครเป็นผู้นำการแข่งขัน

กฎข้อที่หนึ่ง: ความเป็นอยู่ที่ดีของมนุษย์

สมมติฐานแรกของนักวิจัยคือการมุ่งเน้นการทำงานของปัญญาประดิษฐ์เกี่ยวกับความเป็นอยู่ที่ดีของมนุษย์ เนื่องจากการขาด "คุณค่าของมนุษย์ สามัญสำนึก และจริยธรรม" ปัญญาประดิษฐ์สามารถดำเนินการในลักษณะที่จะนำไปสู่การเสื่อมโทรมอย่างมากของความเป็นอยู่ที่ดีของมนุษย์ ปัญหาอาจเป็นผลมาจากความสามารถเหนือมนุษย์ของ AI (เช่น ความง่ายที่ AI เอาชนะมนุษย์ - และไม่ใช่แค่หมากรุกเท่านั้น) แต่ยังรวมถึงข้อเท็จจริงที่ว่า AI ไม่ได้คิดด้วยตัวเอง ดังนั้นจึงไม่สามารถ "กรอง" อคติหรือ ข้อผิดพลาดที่ชัดเจน

AI Postulat

- โฆษณา -

นักวิจัยทราบว่าความไว้วางใจในเทคโนโลยีปัญญาประดิษฐ์ที่มากเกินไปอาจส่งผลเสียต่อความเป็นอยู่ที่ดีของผู้คน สังคมที่มีความเข้าใจเพียงเล็กน้อยว่าอัลกอริทึมของปัญญาประดิษฐ์ทำงานอย่างไรมีแนวโน้มที่จะเชื่อถือมากเกินไป หรือในทางกลับกัน มีทัศนคติเชิงลบต่อเนื้อหาที่สร้างโดยโมเดลบางอย่าง โดยเฉพาะแชทบอท เมื่อพิจารณาจากปัจจัยเหล่านี้และปัจจัยอื่นๆ ทีมของ Garibay เรียกร้องให้นำความเป็นอยู่ที่ดีของมนุษย์เป็นศูนย์กลางของปฏิสัมพันธ์ระหว่าง AI และมนุษย์ในอนาคต

อ่าน: ChatGPT: คู่มือผู้ใช้อย่างง่าย

กฎข้อที่สอง: ความรับผิดชอบ

ความรับผิดชอบเป็นคำที่ปรากฏขึ้นในโลกของ AI อยู่เสมอในบริบทของสิ่งที่เราใช้การเรียนรู้ของเครื่อง และวิธีที่โมเดลและอัลกอริทึมของ AI ได้รับการพัฒนาและฝึกอบรม ทีมงานระหว่างประเทศเน้นย้ำว่าการออกแบบ การพัฒนา และการนำปัญญาประดิษฐ์ไปใช้ควรกระทำด้วยเจตนาที่ดีเท่านั้น

AI Postulat

ในความเห็นของพวกเขา ความรับผิดชอบควรได้รับการพิจารณาไม่เพียงแต่ในด้านเทคนิคเท่านั้น แต่ยังรวมถึงบริบททางกฎหมายและจริยธรรมด้วย เทคโนโลยีต้องได้รับการพิจารณาไม่เพียงแต่จากมุมมองของประสิทธิภาพเท่านั้น แต่ยังรวมถึงบริบทของการใช้งานด้วย

"ด้วยการนำเทคนิคแมชชีนเลิร์นนิงขั้นสูงมาใช้ การทำความเข้าใจว่าการตัดสินใจเกิดขึ้นได้อย่างไรและใครเป็นผู้รับผิดชอบจึงมีความสำคัญมากขึ้นเรื่อยๆ" - เขียนนักวิจัย

กฎข้อที่สาม: การรักษาความลับ

ความเป็นส่วนตัวเป็นหัวข้อที่บูมเมอแรงในทุกวาทกรรมเกี่ยวกับเทคโนโลยี โดยเฉพาะอย่างยิ่งเมื่อมีการพูดคุยทุกอย่างในเครือข่ายสังคมออนไลน์ อย่างไรก็ตาม นี่เป็นสิ่งสำคัญอย่างยิ่งสำหรับปัญญาประดิษฐ์ เนื่องจากไม่มีฐานข้อมูล และฐานข้อมูลคืออะไร?

นักวิทยาศาสตร์อธิบายว่าสิ่งเหล่านี้เป็น "สิ่งที่เป็นนามธรรมของโครงสร้างพื้นฐานที่ประกอบขึ้นเป็นวิธีการที่เรามองโลก" บล็อกเหล่านี้มักจะมีค่าทางโลก: สี รูปร่าง พื้นผิว ระยะทาง เวลา ในขณะที่ AI แบบแคบมุ่งเน้นไปที่เป้าหมายเดียว เช่น ระดับที่ชัตเตอร์เปิดที่ความเข้มแสงที่กำหนด จะใช้ข้อมูลวัตถุประสงค์ที่เปิดเผยต่อสาธารณะ AI ในแอปพลิเคชันที่กว้างขึ้น (ตัวอย่างเช่น โมเดลข้อความเป็นรูปภาพ เช่น Midjourney หรือโมเดลภาษา เช่น ChatGPT ) สามารถใช้ข้อมูลเกี่ยวกับและสร้างโดยผู้คน ควรกล่าวถึงบทความในสื่อสิ่งพิมพ์ หนังสือ ภาพประกอบ และภาพถ่ายที่เผยแพร่บนอินเทอร์เน็ตด้วย อัลกอริทึมปัญญาประดิษฐ์สามารถเข้าถึงทุกสิ่งได้เพราะเรามอบให้พวกเขาเอง มิฉะนั้นเขาจะไม่รู้อะไรเลยและจะไม่ตอบคำถามใด ๆ

AI Postulat

ข้อมูลผู้ใช้โดยพื้นฐานแล้วส่งผลกระทบต่อทั้งบุคคลที่รวบรวมข้อมูลนี้และผู้คนในระบบที่จะใช้อัลกอริทึมปัญญาประดิษฐ์

ดังนั้น ความท้าทายประการที่สามจึงเกี่ยวข้องกับความเข้าใจในวงกว้างเกี่ยวกับความเป็นส่วนตัวและการให้สิทธิต่างๆ เช่น สิทธิที่จะอยู่คนเดียว สิทธิในการจำกัดการเข้าถึงตนเอง สิทธิในการเก็บความลับของชีวิตส่วนตัวหรือธุรกิจ สิทธิในการควบคุมส่วนบุคคล ข้อมูลข่าวสาร กล่าวคือ สิทธิที่จะปกป้องบุคลิกภาพ บุคลิกลักษณะ และศักดิ์ศรีของตน ทั้งหมดนี้ต้องเขียนลงในอัลกอริทึม มิฉะนั้นความเป็นส่วนตัวจะไม่มีอยู่จริง และอัลกอริทึม AI สามารถใช้ในแผนการฉ้อฉลเช่นเดียวกับความผิดทางอาญา

อ่าน: 7 วิธีที่ยอดเยี่ยมที่สุดในการใช้ ChatGPT

กฎข้อที่สี่: โครงสร้างโครงการ

ปัญญาประดิษฐ์นั้นเรียบง่ายมากและมีวัตถุประสงค์เดียว แต่ในกรณีของโมเดลขนาดใหญ่ที่มีลักษณะกว้างและทำงานหลายอย่าง ปัญหาไม่ได้อยู่ที่ความเป็นส่วนตัวของข้อมูลเท่านั้น แต่ยังรวมถึงโครงสร้างการออกแบบด้วย

ตัวอย่างเช่น GPT-4 ซึ่งเป็นโมเดลปัญญาประดิษฐ์ล่าสุดของ OpenAI แม้จะมีขนาดและผลกระทบต่อโลกของ AI (และอื่นๆ) ก็ไม่มีเอกสารสาธารณะทั้งหมด นั่นคือเราไม่เข้าใจว่าเป้าหมายสุดท้ายสำหรับนักพัฒนาคืออะไร พวกเขาต้องการอะไรจากผลลัพธ์สุดท้าย ดังนั้นเราจึงไม่สามารถประเมินความเสี่ยงทั้งหมดที่เกี่ยวข้องกับการใช้โมเดล AI นี้ได้ ในทางกลับกัน GPT-3 ได้รับการฝึกอบรมเกี่ยวกับข้อมูลจากฟอรัม 4chan เป็นรูปแบบที่คุณไม่ต้องการโต้ตอบด้วยอย่างแน่นอน ฟอรัม 4chan เป็นหนึ่งในปรากฏการณ์ที่น่าสนใจที่สุดบนอินเทอร์เน็ต นี่คือตัวอย่างของอนาธิปไตยเบ็ดเสร็จเด็ดขาด ซึ่งในทางปฏิบัติไม่ได้ถูกจำกัดด้วยกรอบใดๆ นี่คือที่ที่กลุ่มแฮ็คเช่น Anonymous หรือ LulzSec ถูกสร้างขึ้น เป็นแหล่งที่มาของมีมที่ได้รับความนิยมมากที่สุด สถานที่สำหรับพูดคุยหัวข้อที่เป็นข้อขัดแย้งและเผยแพร่ความคิดเห็นที่เป็นข้อขัดแย้งมากยิ่งขึ้น แม้ว่าอิมเมจบอร์ดภาษาอังกฤษจะระบุว่า "จนถึงตอนนี้มันถูกกฎหมายแล้ว" แต่สิ่งนี้ค่อนข้างน่าสงสัย เนื่องจาก 4chan มีส่วนร่วมกับสื่อเป็นครั้งคราว รวมถึงเนื้อหาที่เหยียดเชื้อชาติ นาซี และเหยียดเพศ

AI Postulat

- โฆษณา -

ทีมของศาสตราจารย์ Garibay ต้องการให้ปัญญาประดิษฐ์แต่ละรุ่นทำงานภายใต้กรอบที่กำหนดไว้อย่างชัดเจน ไม่เพียงเพราะความเป็นอยู่ที่ดีของบุคคลที่ AI โต้ตอบด้วย แต่ยังเป็นเพราะความสามารถในการประเมินความเสี่ยงที่เกี่ยวข้องกับการใช้แบบจำลอง โครงสร้างของโครงการใด ๆ ควรรวมถึงการเคารพต่อความต้องการ ค่านิยม และความปรารถนาของกลุ่มวัฒนธรรมและผู้มีส่วนได้ส่วนเสียที่แตกต่างกัน กระบวนการสร้าง ฝึกอบรม และปรับแต่ง AI ควรมุ่งเน้นไปที่ความเป็นอยู่ที่ดีของมนุษย์ และผลิตภัณฑ์ขั้นสุดท้าย – โมเดล AI ควรมุ่งเน้นไปที่การยกระดับและปรับปรุงประสิทธิภาพการผลิตของชุมชนมนุษย์เอง โมเดลที่ไม่สามารถระบุความเสี่ยงได้ควรมีการเข้าถึงที่จำกัดหรือควบคุมได้ พวกเขาไม่ควรเป็นภัยคุกคามต่อมนุษยชาติ แต่ในทางกลับกัน มีส่วนช่วยในการพัฒนามนุษย์และสังคมโดยรวม

อ่าน: Twitter ในมือของ Elon Musk - ภัยคุกคามหรือ "การปรับปรุง"?

กฎข้อที่ห้า: การกำกับดูแลและการกำกับดูแลที่เป็นอิสระ

อัลกอริธึมปัญญาประดิษฐ์เปลี่ยนโลกอย่างแท้จริงในเวลาเพียงหนึ่งปี Bard โดย Google และ Bing รอบปฐมทัศน์โดย Microsoft ส่งผลกระทบอย่างมีนัยสำคัญต่อหุ้นของทั้งสองยักษ์ใหญ่ในตลาดหลักทรัพย์ อย่างไรก็ตาม พวกเขามีส่วนทำให้หุ้นของบริษัทเหล่านี้เติบโตแม้จะอยู่ท่ามกลางหุ้นก็ตาม Apple. นักเรียนในโรงเรียนเริ่มใช้ ChatGPT อย่างจริงจัง พวกเขาสื่อสาร ตรวจสอบ และถามคำถาม สิ่งที่สำคัญที่สุดคือเขามีความสามารถในการเรียนรู้ด้วยตนเอง แก้ไขข้อผิดพลาดของเขา ปัญญาประดิษฐ์เริ่มทำงานในรัฐบาลของบางประเทศด้วยซ้ำ นี่คือกรณีของนายกรัฐมนตรี Nicolae Chuca ของโรมาเนีย จ้างเสมือน ผู้ช่วยที่จะแจ้งให้เขาทราบเกี่ยวกับความต้องการของสังคม นั่นคือปัญญาประดิษฐ์มีบทบาทสำคัญมากขึ้นในชีวิตของเรา

AI

เนื่องจากการพึ่งพาอาศัยกันที่เพิ่มขึ้นเรื่อยๆ ระหว่างปัญญาประดิษฐ์ มนุษย์ และสิ่งแวดล้อม นักวิทยาศาสตร์จึงพิจารณาว่าจำเป็นต้องสร้างหน่วยงานกำกับดูแลและกำกับดูแลการพัฒนาอย่างอิสระ หน่วยงานเหล่านี้จะควบคุมวงจรชีวิตของปัญญาประดิษฐ์ทั้งหมด ตั้งแต่แนวคิดไปจนถึงการพัฒนาและการนำไปใช้ ทางการจะกำหนดรูปแบบต่างๆ ของ AI อย่างเหมาะสม และพิจารณากรณีที่เกี่ยวข้องกับปัญญาประดิษฐ์และหัวข้อของชีวิตทางสังคม นั่นคือปัญญาประดิษฐ์สามารถกลายเป็นเรื่องของคดีความในศาลได้เช่นเดียวกับคดีความ แม้ว่าจะไม่ใช่เขาเป็นการส่วนตัว แต่เป็นนักพัฒนาของเขา

อ่าน: ทั้งหมดเกี่ยวกับ Neuralink: จุดเริ่มต้นของ Cyberpunk Madness?

กฎข้อที่หก: ปฏิสัมพันธ์ของมนุษย์และปัญญาประดิษฐ์

ในโปรแกรมปัญญาประดิษฐ์ ทุกคนสามารถค้นหาบางอย่างด้วยตนเอง: สร้างข้อความ ตรวจจับเนื้อหาในรูปภาพ ตอบคำถาม สร้างรูปภาพ จดจำผู้คนในภาพถ่าย วิเคราะห์ข้อมูล การใช้งานที่หลากหลายเหล่านี้ไม่ได้เป็นเพียงความกังวลสำหรับผู้ที่พยายามปรับปัญญาประดิษฐ์ให้เข้ากับมาตรฐานทางกฎหมายและจริยธรรมเท่านั้น หลายคนกลัวว่าจะถูกแทนที่จากตลาดแรงงานด้วยโมเดล AI เนื่องจากอัลกอริธึมปัญญาประดิษฐ์จะสามารถทำสิ่งเดียวกันได้เร็วกว่า ถูกกว่า และอาจดีกว่าคนด้วยซ้ำ ในขณะเดียวกันก็มีคนที่พึ่งพา AI ในการทำงาน กล่าวคือปัญญาประดิษฐ์เป็นผู้ช่วยที่ขาดไม่ได้สำหรับพวกเขาในปัจจุบัน

AI

แต่จากการศึกษาที่นักวิทยาศาสตร์อ้างถึงเป็นที่ชัดเจนว่าการแทนที่คนด้วยแรงงานเทียมราคาถูกนั้นยังอีกยาวไกล อย่างไรก็ตาม เรื่องนี้ พวกเขายืนยันอยู่แล้วถึงความจำเป็นในการสร้างลำดับขั้นที่เข้มงวดของการปฏิสัมพันธ์ระหว่างมนุษย์กับปัญญาประดิษฐ์ ในความเห็นของพวกเขา มนุษย์ควรอยู่เหนือปัญญาประดิษฐ์ ปัญญาประดิษฐ์ต้องสร้างขึ้นด้วยความเคารพในความสามารถทางปัญญาของบุคคล โดยคำนึงถึงอารมณ์ ปฏิสัมพันธ์ทางสังคม ความคิด การวางแผน และการมีปฏิสัมพันธ์กับวัตถุ นั่นคือในทุกสถานการณ์ บุคคลที่ต้องยืนหยัดเหนือปัญญาประดิษฐ์ ควบคุมพฤติกรรมและเนื้อหาที่สร้างโดยแบบจำลอง และรับผิดชอบต่อมัน พูดง่ายๆ ก็คือ แม้แต่ AI ที่ก้าวหน้าที่สุดก็ต้องเชื่อฟังคนๆ หนึ่งและไม่ทำเกินกว่าที่อนุญาต เพื่อไม่ให้เกิดอันตรายต่อผู้สร้าง

อ่าน: วิธีที่ยูเครนใช้และปรับใช้ Starlink ในช่วงสงคราม

วิสโนวิช

ใช่ บางคนจะบอกว่านักวิทยาศาสตร์ไม่ได้ระบุสิ่งที่สำคัญและใหม่ในรายงานของพวกเขา ทุกคนพูดถึงเรื่องนี้มานานแล้ว แต่ตอนนี้จำเป็นต้องให้ AI อยู่ในกรอบของกฎหมาย การเข้าถึง GPT-4 ก็เหมือนกับการหยิบมีดสุ่มสี่สุ่มห้า พวกเขาซ่อนข้อมูลสำคัญจากเรา การพัฒนาทั้งหมดในด้านปัญญาประดิษฐ์ และโดยเฉพาะอย่างยิ่งโครงการ ChatGPT จาก Open AI มักจะทำให้ฉันนึกถึงการเลี้ยงลูกเล็กๆ บางครั้งดูเหมือนว่านี่เป็นลูกที่มาจากต่างดาว ใช่ มนุษย์ต่างดาว แต่เขายังเป็นเด็กที่เรียนรู้ ผิดพลาดบ้าง ประพฤติตัวไม่เหมาะสม ขี้โมโห ทะเลาะกับพ่อแม่ แม้ว่ามันจะเติบโตและพัฒนาอย่างรวดเร็ว

AI

มนุษยชาติอาจตามไม่ทันกับการพัฒนา และสิ่งต่างๆ อาจอยู่เหนือการควบคุม ดังนั้น มนุษยชาติจำเป็นต้องเข้าใจอยู่แล้วว่าทำไมเราจึงพัฒนาทั้งหมดนี้ เพื่อทราบเป้าหมายสูงสุด การเป็น "พ่อแม่ที่มีความรับผิดชอบ" เพราะไม่เช่นนั้น "ลูก" ก็สามารถทำลาย "พ่อแม่" ของมันได้

อ่าน: 

Yuri Svitlyk
Yuri Svitlyk
บุตรแห่งเทือกเขาคาร์เพเทียน อัจฉริยะทางคณิตศาสตร์ที่ไม่มีใครรู้จัก "ทนายความ"Microsoft,เห็นแก่ผู้อื่นในทางปฏิบัติ, ซ้าย-ขวา
- โฆษณา -
ปิ๊ดปิซาติเซียน
แจ้งเตือนเกี่ยวกับ
ผู้เข้าพัก

0 ความคิดเห็น
บทวิจารณ์แบบฝัง
ดูความคิดเห็นทั้งหมด
สมัครรับข้อมูลอัปเดต