Mattel ผู้ผลิตของเล่นรายใหญ่กำลังทดสอบปัญญาประดิษฐ์เชิงสังเคราะห์อย่าง ChatGPT เพื่อช่วยให้ทีมงานด้านไซเบอร์ทำงานง่ายขึ้น

อย่างไรก็ดี ทอม เล (Tom Le) ประธานเจ้าหน้าที่ฝ่ายความมั่นคงข้อมูล ชี้ว่าความเสี่ยงจากผลลัพธ์ที่ไม่แม่นยำของปัญญาประดิษฐ์นั้นอาจส่งผลร้ายแรงเกินไป หากนำมาใช้แบบไม่มีการควบคุม

เลชี้ว่าผลลัพธ์จากการป้อนคำถามเข้าไปให้ปัญญาประดิษฐ์ตอบนั้นมีความผิดพลาดเยอะมาก แม้ในบางคำตอบจะดูน่าเชื่อถือก็ตาม

เขาเชื่อว่าวิธีหนึ่งที่จะจัดการกับผลลัพธ์ที่ผิดพลาดคือการฝึกทักษณะการป้อนคำถามให้กับพนักงาน ซึ่ง Mattel เองก็กำลังฝึกวิธีใช้ปัญญาประดิษฐ์เชิงสังเคราะห์ให้กับพนักงานอยู่

สิ่งสำคัญคือต้องฝึกให้ทีมเน้นการป้อนคำถามที่เฉพาะเจาะจง มีคำตอบที่ชัดเจน และไม่ใช่คำถามที่ต้องใช้ความเห็นส่วนตัวในการตอบ จะทำให้ได้คำถามที่แม่นยำและเป็นประโยชน์กว่า

ข้อกังวลอีกอย่างหนึ่งคือการที่ปัญญาประดิษฐ์ประเภทนี้ไปสำรวจหาข้อมูลที่มันไม่ควรหา โดยเฉพาะข้อมูลความลับของบริษัท ซึ่งการที่ปัญญาประดิษฐ์จะตอบคำถามใด ๆ ก็ต้องเข้าไปในฐานข้อมูลและไฟล์ที่ถูกจำกัดการเข้าถึง

ด้วยเหตุนี้ ก็ต้องมีการกำหนดขอบเขตข้อมูลที่ปัญญาประดิษฐ์จะเข้าไปใช้งานได้ด้วย

เลชี้ว่าปัญญาประดิษฐ์เชิงสังเคราะห์ยังไม่ได้ไปถึงจุดที่บริษัทต่าง ๆ จะพึ่งพาได้โดยไม่ต้องมีพนักงานควบคุมการทำงาน การใช้งานในตอนนี้ทำได้แค่เพียงเสริมสิ่งที่มีอยู่แล้วเท่านั้น

ที่มา WSJ

พิสูจน์อักษร : สุชยา เกษจำรัส