การพัฒนาด้าน AI อย่างก้าวกระโดดในปัจจุบันได้ส่งผลทำให้เกิดความเสี่ยงด้านความปลอดภัยทางเทคโนโลยีอย่างหลีกเลี่ยงไม่ได้ ซึ่งทำให้หน่วยงานภาครัฐที่กำกับดูแลต้องออกกฏระเบียบรองรับการพัฒนา AI อย่างเร่งด่วน
ล่าสุด บริษัทเทคโนโลยียักษ์ใหญ่ก็เดินหน้าออกมาตรการป้องกันด้วยเช่นกัน โดย Anthropic, Google, Microsoft และ OpenAI ได้ร่วมกันจัดตั้งกลุ่มความปลอดภัยด้าน AI เรียกว่า Frontier Model Forum ขึ้นมา เพื่อเป็นผู้นำในภาคอุตสาหกรรมเทคโนโลยีที่มุ่งเน้นด้านการพัฒนา AI อย่างระมัดระวัง และมีความปลอดภัยสูง
Frontier Model Forum จะคัดกรองว่าโมเดล Machine Learning ขนาดใหญ่ใดที่มีความหน้าหน้าเกินความจำเป็นในปัจจุบัน หรือเป็นโมเดลที่มีความสามารถหลากหลาย อีกทั้งยังมีแผนจะจัดตั้งคณะกรรมการที่ปรึกษา และระดมทุน โดยมีวัตถุประสงค์ดังนี้
- เพื่อเป็นเสาหลักในการวิจัยความปลอดภัยของ AI
- เพื่อกำหนดแนวทางร่วมกับนักวิชาการ, ภาคประชาชน และบริษัทต่าง ๆ
- เพื่อสนับสนุนการสร้าง AI ที่ช่วยตอบสนองต่อความก้าวหน้าอย่างรวดเร็วของสังคมได้
ทั้งนี้ สมาชิกกลุ่มจะรายงานการดำเนินงานตามวัตถุประสงค์ทั้ง 3 ข้อข้างต้น ในปีหน้า รวมทั้งพูดคุยสถานะการเป็นสมาชิก และกำหนดคุณสมบัติที่จำเป็นสำหรับการพัฒนา AI เพิ่มเติม เช่น กำหนดขอบเขตของโมเดล และผู้พัฒนาต้องแสดงให้เห็นชัดเจนว่าต้องการทำให้ AI มีความปลอดภัย เป็นต้น
ฟอรัมดังกล่าวนี้ ได้รับการจัดตั้งตามข้อตกลงระหว่างรัฐบาลสหรัฐฯ และบริษัทผู้พัฒนา AI โดยจะมีการกำหนดมาตรฐานด้านความปลอดถัยของ AI มากมายต่อไป เช่น การทดสอบความปลอดภัยโดยผู้เชี่ยวชาญ และ ใส่ลายน้ำ (Watermark) ในเนื้อหาที่สร้างขี้นโดย AI เป็นต้น
ที่มา : Engadget
พิสูจน์อักษร : สุชยา เกษจำรัส