ปัญหาเรื่องของการโดน AI นำผลงานศิลปะ หรือรูปภาพไปเทรนด์โมเดล และทำรูปภาพซ้ำก็เป็นปัญหาที่เหล่าศิลปินกำลังปวดหัวอยู่ทุก ๆ วัน ล่าสุดมหาวิทยาลัยชิคาโกก็ได้ปล่อยเครื่องมือตัวใหม่ที่มีชื่อว่า Nightshade สามารถป้องกัน และโจมตี AI ที่ต้องการเลียนแบบภาพได้
โปรเจกต์ Nightshade เป็นโปรเจกต์ต่อเนื่องที่ถูกเปิดตัวเมื่อปีที่แล้วอย่าง Glaze เป็นผลงานของทีมนักวิจัยมหาวิทยาลัยชิคาโก เครื่องมือ Nightshade จะแตกต่างจาก Glaze ที่สามารถวางยาพิษใส่โมเดล AI ได้ ซึ่งชื่อของเครื่องมือก็ถูกตั้งตามชื่อของพืชพิษ Balladonna หรือ Deadly Nightshade
หลักการทำงานง่าย ๆ ของเครื่องมือ Nightshade ก็คือ จะเพิ่มโค้ดภายในรูปภาพที่ส่งผลต่อการเปลี่ยนรูปภาพเพียงเล็กน้อยจนสายตาของมนุษย์มองไม่เห็นความเปลี่ยนแปลงได้ แต่โมเดล AI ที่เห็นภาพดังกล่าวอาจจะเห็นรูปภาพอื่น ๆ แทรกซ้อนด้านในเช่น ภาพทุ่งหญ้าสีเขียวที่ตามนุษย์เห็นปกติแต่ AI มองเห็นรถยนต์ภายในรูปภาพ เมื่อ AI นำรูปภาพดังกล่าวไปใช้เทรนโมเดล หรือทำซ้ำก็จะไม่ได้รูปแบบของภาพต้นฉบับ และเทรนโมเดลผิดพลาดได้
ในท้ายที่สุดอาจจะมีคำถามว่า Glaze และ Nightshade นั้นแตกต่างอย่างไร ทางด้านนักวิจัยได้บอกว่า Glaze ถูกออกแบบมาเพื่อปกป้องชิ้นงานศิลปะไม่ให้ AI นำไปทำซ้ำ และ Nightshade ออกแบบมาเพื่อโจมตี AI ที่ต้องการนำชิ้นงานไปเทรนโมเดล
ในอนาคตทีมนักวิจัยมหาวิทยาลัยชิคาโกจะออกเครื่องมือตัวใหม่ที่มีการรวมคุณสมบัติของเครื่องมือ Glaze และ Nightshade ไว้ในตัวเดียว
ที่มา : Nightshade, Paper Nightshade
พิสูจน์อักษร : สุชยา เกษจำรัส