ญี่ปุ่นออกแนวทางพัฒนาระบบป้องกันภัยที่ใช้ AI เน้นความปลอดภัย-จริยธรรม

ข่าวต่างประเทศ Friday June 6, 2025 11:05 —สำนักข่าวอินโฟเควสท์ (IQ)

กระทรวงกลาโหมญี่ปุ่นประกาศแนวทางเพื่อการพัฒนาระบบป้องกันที่ควบคุมด้วยปัญญาประดิษฐ์ (AI) อย่างปลอดภัย โดยมุ่งแก้ไขข้อกังวลด้านจริยธรรมเกี่ยวกับอาวุธที่สามารถปฏิบัติการได้โดยไม่ต้องมีมนุษย์ควบคุมโดยตรง

เก็น นาคาทานิ รัฐมนตรีกลาโหมญี่ปุ่นกล่าวในวันนี้ (6 มิ.ย.) ว่า แนวทางดังกล่าวระบุขั้นตอนปฏิบัติในกระบวนการวิจัยและพัฒนาอุปกรณ์ป้องกันภัย พร้อมเรียกร้องให้มีการจัดประเภทระบบอย่างรอบคอบ ตรวจสอบกฎหมายและนโยบายให้เป็นไปตามข้อกำหนด และประเมินความน่าเชื่อถือของระบบในปฏิบัติการจริง

นาคาทานิระบุว่า แนวทางนี้มีเป้าหมายเพื่อ "ลดความเสี่ยงในการใช้ AI พร้อมกับเพิ่มประโยชน์สูงสุด" อีกทั้งยังช่วยสร้างความมั่นใจให้กับภาคเอกชน โดยกระทรวงฯ จะส่งเสริมการวิจัยและพัฒนาอย่างรับผิดชอบ

นอกจากนี้ กระทรวงกลาโหมจะตรวจสอบเพื่อให้มั่นใจว่าระบบอาวุธเหล่านี้สอดคล้องกับข้อกำหนด เช่น มีความรับผิดชอบจากมนุษย์อย่างชัดเจนและมีความปลอดภัยในการใช้งาน พร้อมจัดประเภทอาวุธตามระดับความเสี่ยงเป็น "สูง" หรือ "ต่ำ"

หากจัดอยู่ในกลุ่มความเสี่ยงสูงเนื่องจาก AI มีผลต่อความสามารถในการทำลายล้าง กระทรวงฯ จะประเมินว่าอุปกรณ์ดังกล่าวเป็นไปตามกฎหมายระหว่างประเทศและกฎหมายในประเทศ อยู่ภายใต้การควบคุมของมนุษย์ และไม่ใช่อาวุธร้ายแรงที่ทำงานเองได้โดยสมบูรณ์หรือไม่

สำนักข่าวเกียวโดรายงานว่า ความกังวลทั่วโลกเกี่ยวกับอาวุธอัตโนมัติที่ใช้ AI กำลังเพิ่มสูงขึ้น เนื่องจากโดรนติดอาวุธถูกนำมาใช้อย่างแพร่หลายในสงครามระหว่างรัสเซียกับยูเครน รวมถึงความขัดแย้งในตะวันออกกลาง


เว็บไซต์นี้มีการใช้งานคุกกี้ ศึกษารายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว และ ข้อตกลงการใช้บริการ รับทราบ