หมวดหมู่: ข่าวไอที

ผู้เชี่ยวชาญเตือน: ในไม่ช้าปัญญาประดิษฐ์จะขโมยความฉลาด

จากการศึกษาใหม่ การโจมตีทางไซเบอร์โดยใช้ปัญญาประดิษฐ์จะกลายเป็นอันตรายมากขึ้น ผู้เขียนรายงานล่าสุดเตือนว่าการโจมตีทางไซเบอร์โดยใช้ปัญญาประดิษฐ์ (AI) ซึ่งค่อนข้างจำกัดจนถึงขณะนี้ จะรุนแรงมากขึ้นในอีก XNUMX ปีข้างหน้า

ตามรายงานของ Cybernews ตัวแทนของ WithSecure บริษัทรักษาความปลอดภัยทางไซเบอร์และความเป็นส่วนตัวในเฮลซิงกิ ตลอดจนหน่วยงานขนส่งและการสื่อสารของฟินแลนด์ และหน่วยงานจัดหาเหตุฉุกเฉินแห่งชาติของฟินแลนด์ ได้ทำงานในบทความนี้

Andy Patel นักวิจัยจาก WithSecure กล่าวว่า "ในขณะที่เนื้อหาที่สร้างโดย AI ถูกนำมาใช้เพื่อวัตถุประสงค์ด้านวิศวกรรมสังคม เทคนิค AI ที่ออกแบบมาสำหรับตรรกะของมัลแวร์ยังไม่ได้รับการสังเกตใน 'ไวด์'" Andy Patel นักวิจัยจาก WithSecure กล่าว จากการประเมินของเขา สิ่งนี้จะเปลี่ยนไปในไม่ช้า ผู้เชี่ยวชาญกล่าวว่าจำเป็นต้องใช้ทรัพยากรจำนวนมากเพื่อสร้าง AI เฉพาะทาง ดังนั้นในตอนแรกการเผยแพร่จะจำกัดเฉพาะ "ผู้โจมตีที่มีประสบการณ์" จากนั้นจะเข้าถึงผู้ใช้ทั่วไป

ผู้เขียนรายงานอ้างว่าการแฮ็กโดยใช้ AI นั้นหายากมากในปัจจุบัน และส่วนใหญ่จะใช้เพื่อจุดประสงค์ด้านวิศวกรรมสังคม ระเบียบวินัยของ AI ที่ทันสมัยส่วนใหญ่ยังไม่ใกล้เคียงกับสติปัญญาของมนุษย์ และไม่สามารถวางแผนหรือดำเนินการโจมตีทางไซเบอร์ได้โดยอัตโนมัติ

อย่างไรก็ตาม ผู้โจมตีมีแนวโน้มว่าในอีก XNUMX ปีข้างหน้าจะสร้าง AI ที่สามารถตรวจจับช่องโหว่โดยอัตโนมัติ วางแผนและดำเนินแคมเปญโจมตี ใช้ "การหลบหลีก" เพื่อเลี่ยงการป้องกัน และรวบรวมหรือขุดข้อมูลจากระบบที่ติดไวรัสหรือข่าวกรองแบบโอเพ่นซอร์ส

“การโจมตีของ AI ทำได้เร็วกว่า กำหนดเป้าหมายเหยื่อได้มากขึ้น และค้นหาเวกเตอร์การโจมตีได้มากกว่าการโจมตีแบบเดิม เนื่องจากธรรมชาติของระบบอัตโนมัติอัจฉริยะและข้อเท็จจริงที่ว่าพวกมันเข้ามาแทนที่งานที่ต้องทำด้วยตนเองโดยทั่วไป” รายงานระบุ

ในการแก้ปัญหา ผู้เชี่ยวชาญแนะนำให้เริ่มใช้และพัฒนามาตรการป้องกันตั้งแต่เนิ่นๆ

คุณสามารถช่วยยูเครนต่อสู้กับผู้รุกรานรัสเซีย วิธีที่ดีที่สุดคือบริจาคเงินให้กับกองทัพยูเครนผ่าน เซฟไลฟ์ หรือทางเพจอย่างเป็นทางการ NBU.

Share
Julia Alexandrova

คอฟฟี่แมน. ช่างภาพ. ฉันเขียนเกี่ยวกับวิทยาศาสตร์และอวกาศ ฉันคิดว่ามันเร็วเกินไปที่เราจะได้พบกับมนุษย์ต่างดาว ฉันติดตามการพัฒนาหุ่นยนต์ ในกรณีที่ ...

เขียนความเห็น

ที่อยู่อีเมลของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมาย*