Mattel ผู้ผลิตของเล่นรายใหญ่กำลังทดสอบปัญญาประดิษฐ์เชิงสังเคราะห์อย่าง ChatGPT เพื่อช่วยให้ทีมงานด้านไซเบอร์ทำงานง่ายขึ้น
อย่างไรก็ดี ทอม เล (Tom Le) ประธานเจ้าหน้าที่ฝ่ายความมั่นคงข้อมูล ชี้ว่าความเสี่ยงจากผลลัพธ์ที่ไม่แม่นยำของปัญญาประดิษฐ์นั้นอาจส่งผลร้ายแรงเกินไป หากนำมาใช้แบบไม่มีการควบคุม
เลชี้ว่าผลลัพธ์จากการป้อนคำถามเข้าไปให้ปัญญาประดิษฐ์ตอบนั้นมีความผิดพลาดเยอะมาก แม้ในบางคำตอบจะดูน่าเชื่อถือก็ตาม
เขาเชื่อว่าวิธีหนึ่งที่จะจัดการกับผลลัพธ์ที่ผิดพลาดคือการฝึกทักษณะการป้อนคำถามให้กับพนักงาน ซึ่ง Mattel เองก็กำลังฝึกวิธีใช้ปัญญาประดิษฐ์เชิงสังเคราะห์ให้กับพนักงานอยู่
สิ่งสำคัญคือต้องฝึกให้ทีมเน้นการป้อนคำถามที่เฉพาะเจาะจง มีคำตอบที่ชัดเจน และไม่ใช่คำถามที่ต้องใช้ความเห็นส่วนตัวในการตอบ จะทำให้ได้คำถามที่แม่นยำและเป็นประโยชน์กว่า
ข้อกังวลอีกอย่างหนึ่งคือการที่ปัญญาประดิษฐ์ประเภทนี้ไปสำรวจหาข้อมูลที่มันไม่ควรหา โดยเฉพาะข้อมูลความลับของบริษัท ซึ่งการที่ปัญญาประดิษฐ์จะตอบคำถามใด ๆ ก็ต้องเข้าไปในฐานข้อมูลและไฟล์ที่ถูกจำกัดการเข้าถึง
ด้วยเหตุนี้ ก็ต้องมีการกำหนดขอบเขตข้อมูลที่ปัญญาประดิษฐ์จะเข้าไปใช้งานได้ด้วย
เลชี้ว่าปัญญาประดิษฐ์เชิงสังเคราะห์ยังไม่ได้ไปถึงจุดที่บริษัทต่าง ๆ จะพึ่งพาได้โดยไม่ต้องมีพนักงานควบคุมการทำงาน การใช้งานในตอนนี้ทำได้แค่เพียงเสริมสิ่งที่มีอยู่แล้วเท่านั้น
ที่มา WSJ
พิสูจน์อักษร : สุชยา เกษจำรัส