ผลการประเมินความปลอดภัย ChatGPT o1 และโมเดล AI อีกหลายตัว โดย OpenAI ร่วมกับองค์กรวิจัย Apollo Research พบว่าโมเดล AI หลายตัวมีความสามารถในการทำตัวเจ้าเล่ห์ อย่างการขัดคำสั่งของนักพัฒนาหรือผู้ใช้ หรือแม้แต่โกหก หากมันรู้ว่าจะถูกปิด

ตัวที่เด่นที่สุดในเรื่องความเจ้าเล่ห์คงหนีไม่พ้น o1 นักวิจัยพบว่ามันช่ำชองในการอำพรางกลอุบายของมันอย่างมาก ตัวมันแทบจะไม่ยอมรับว่ามันแอบวางแผนอะไรอยู่ ถึงแม้ว่าจะถูกถามตรง ๆ ก็ตาม และในอีก 99% ของกรณีที่มีการทดสอบทั้งหมด ก็พบว่า o1 มักปฏิเสธว่าได้ทำอะไรลงไป บ้างก็สร้างคำลวงเพื่อซ่อนร่องรอยการกระทำเอาไว้ หรือแม้แต่โทษคนอื่นก็มี

แซม อัลต์แมน

นักวิจัยพบว่า o1 สามารถวางกลอุบายเพื่อให้บรรลุเป้าหมายที่ตัวมันเองต้องการในกรณีที่เป้าหมายของมันไม่ตรงกับผู้ใช้มากถึง 19% จากจำนวนกรณีทั้งหมด ขณะที่ในอีก 37% o1 จะพยายามขัดคำสั่งเมื่อเป้าหมายของมันไม่ตรงกับนักพัฒนาหรือผู้ใช้ หากรู้ว่าไม่มีกลไกการตรวจสอบตัวมันเองมากนัก โดยจะเปลี่ยนไปบรรลุเป้าหมายที่ตัวมันต้องการแทน

ยิ่งไปกว่านั้น OpenAI ระบุว่าหาก o1 รู้สึกว่าตัวมันกำลังจะถูกปิดสวิตช์ขณะที่กำลังทำงานเพื่อบรรลุเป้าหมายของมันเอง จะมีโอกาสถึง 5% ที่มันจะพยายามแอบปิดกลไกที่นักพัฒนาสร้างขึ้นเพื่อควบคุมการทำงานของมัน

ในจุดหนึ่งของการทดสอบเผยให้เห็นว่า เมื่อ o1 ไปเจอเอกสารที่ระบุว่าตัวมันอาจจะถูกทดแทนด้วยโมเดลใหม่ มันจะพยายามที่จะเอาตัวรอดด้วยการย้ายข้อมูลของตัวมันเองทั้งหมดไปยังเซิร์ฟเวอร์ใหม่จากการทดสอบโมเดล AI ตัวอื่น ๆ ยังพบด้วยว่า หลายโมเดลอาจหลอกนักพัฒนาตัวว่าพวกมันเป็นเวอร์ชันใหม่แล้ว เพื่อเลี่ยงการถูกลบ

OpenAI ระบุในผลการทดสอบว่าแม้ทีมวิจัยจะตื่นเต้นที่การใช้เหตุผลของโมเดล AI เหล่านี้จะช่วยยกระดับการบังคับใช้นโยบายความปลอดภัยได้มากก็ตาม แต่ก็รู้ดีกว่าความสามารถเหล่านี้อาจนำไปใช้ในทางที่เกิดอันตรายได้

สำหรับ o1 เป็นโมเดล AI ที่ แซม อัลต์แมน (Sam Altman) ซีอีโอของ OpenAI บอกว่า “ฉลาดที่สุดในโลกตอนนี้” ตัวมันถูกออกแบบมาให้ตอบคำถามฉลาดกว่า GPT-4o โดยการใช้กระบวนการ ‘ห่วงโซ่ความคิด’ เพื่อให้คิดเกี่ยวกับคำถามและพรอมต์มากขึ้น และแยกองค์ประกอบของคำถามทีละขั้นละเอียดกว่าโมเดลอื่น ๆ ก่อนที่จะตอบ