ไม่นานมานี้ OpenAI กำลังเจอกับปัญหาการฟ้องร้องเรื่องข้อมูลผิดพลาดจากแชทบอทยอดฮิตอย่าง ChatGPT เพราะแชทบอท AI ตัวดังนี้ดันปล่อยข้อมูลปลอมออกมา แถมคราวนี้เรื่องใหญ่จนหน่วยงานกำกับดูแลคงมองข้ามไม่ได้ กลายเป็นประเด็นร้อนจนถึงหู Noyb องค์กรที่ดูแลเรื่องทำงานด้านการบังคับใช้กฎหมายคุ้มครองข้อมูล เช่น GDPR และ ePrivacy Directive

Noyb องค์กรอิสระด้านความเป็นส่วนตัวจากออสเตรีย ได้ส่งเรื่องคอมเพลนเกี่ยวกับผู้ใช้งาน ChatGPT ในนอร์เวย์ โดยเนื้อหาคือผู้ใช้รายนี้อยากทราบข้อมูลเกี่ยวกับตัวเองแต่เมื่อ ChatGPT เจนข้อมูลออกมา กลับบอกว่าผู้ใช้รายนี้ถูกตัดสินว่ามีความผิดฐานฆาตกรรมลูกของตัวเอง 2 คน และพยายามฆ่าลูกอีกหนึ่งคน ! แน่นอนว่าข้อมูลชุดนี้ไม่ถูกต้องแถมยังเป็นการสร้างเรื่องที่โหดร้ายขึ้นมาอีก

ChatGPT ไม่ได้ยืนยันความถูกต้องของข้อมูลอยู่แล้ว ?

ก่อนหน้านี้ ChatGPT ก็เคยโดนฟ้องเรื่องข้อมูลส่วนตัวที่ผิดอยู่แล้ว เช่นวันเกิด หรือข้อมูลเกี่ยวกับชีวประวัติ สิ่งที่น่ากังวลคือ OpenAI ไม่ได้เปิดโอกาสให้ผู้ใช้งานเข้าไปแก้ไขข้อมูลส่วนตัวในส่วนนี้ Noyb จึงกังวลในประเด็นที่ว่าหาก Open AI ไม่ได้ให้เราไปแก้ไขข้อมูลส่วนตัว (และข้อมูลที่ถูกใส่ไข่) จะเป็นการละเมิดสิทธิภายใต้หลักการภายใต้ความถูกต้องของข้อมูลของ GDPR (ระเบียบการคุ้มครองข้อมูลทั่วไป) อยู่หรือเปล่า ?

หลายคนก็ออกมาเตือนอยู่แล้วว่าผลลัพธ์ที่ได้จากการป้อนข้อมูลใน ChatGPT มักจะเป็นการ ‘คาดเดา’ คำพูดที่เกี่ยวข้องกับคำก่อนหน้า จึงอาจพูดได้ว่า ChatGPT ไม่ได้ให้ข้อมูลที่ถูกต้อง แต่คาดเดาเนื้อหาที่เป็นไปได้เท่านั้น อย่างไรก็ตาม โยคิม โซเดอร์เบิร์ก (Joakim Söderberg) ทนายความด้านการคุ้มครองข้อมูลของ Noyb ก็ออกมาย้ำว่า กรณีที่ผู้ใช้งานไม่สามารถแก้ไขข้อมูลส่วนตัวที่ถูกต้องเองได้ แล้วใส่ disclaimer เล็ก ๆ จาก ChatGPT เพื่อบอกว่า “เนื้อหาอาจไม่ถูกต้อง” แบบนี้ก็ไม่แฟร์ เพราะอย่างกรณีที่ผลลัพธ์ของ ChatGPT ถูกเจนออกมาในแง่ของการกล่าวหารุนแรงอย่างชาวนอร์เวย์ที่ฟ้องร้องมา แล้วอยู่ๆ มาใส่ disclaimer เล็ก ๆ แบบนี้มันก็ไม่ใช่เรื่อง (เพราะไม่งั้นทำไมไม่ให้คำตอบที่ถูกต้องแต่แรก)

OpenAI รับผิดชอบไม่ได้ เพราะไม่ได้มีหน้าที่แก้ไขข้อมูลให้ถูกต้อง แต่เป็นการให้ผลลัพธ์จากคำสั่งที่ป้อนลงไปเท่านั้น

ก่อนหน้าที่ Noyb เคยฟ้อง OpenAI เรื่องข้อมูลส่วนตัวที่ไม่ถูกต้องไปแล้ว คำตอบที่ได้คือทางบริษัทไม่มีหน้าที่แก้ไขข้อมูลให้ถูกต้องแต่แรก เพียงแค่ ‘บล็อก’ การแสดงผลสำหรับบางคำสั่งเท่านั้น แต่ข้อมูลเท็จยังคงอยู่ในระบบ และใช้ disclaimer มาอ้างเช่น ‘อาจผิดพลาด’ หรือ ‘ควรตรวจสอบข้อมูลสำคัญ’ ซึ่งการที่บริษัท AI ทำแบบนี้สามารถหลีกเลี่ยงความเสี่ยงต่อการโดนฟ้องก็จริง แต่ก็ปฎิเสธไม่ได้ว่ามันผิดตามหลักของ GDPR อยู่ดี และที่น่ากังวลที่สุดคือข้อมูลที่ไม่ถูกต้องจะยังอยู่ในระบบ ส่งผลให้ผู้ใช้ยังไม่สามารถมั่นใจได้ว่าข้อมูลจะถูกต้องในอนาคต

กลับมาที่คำฟ้องร้องของ Noyb

Noyb ร้องเรียนต่อ Datatilsynet (หน่วยงานคุ้มครองข้อมูลนอร์เวย์) กรณี OpenAI ปล่อยให้ AI สร้างข้อมูลหมิ่นประมาทผู้ใช้ ซึ่งละเมิดหลักความถูกต้องของข้อมูลตามมาตรา 5(1)(d) ของ GDPR โดยเรียกร้อง ดังนี้

  • OpenAI ต้องลบข้อมูลหมิ่นประมาททั้งหมด
  • ปรับปรุงโมเดลเพื่อป้องกันการสร้างข้อมูลที่ไม่ถูกต้อง
  • หน่วยงานกำหนดค่าปรับเพื่อป้องกันการละเมิดลักษณะเดียวกันในอนาคต