News TECH IT News NIST เตือนภัยวิธีการแฮก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้ สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) พบว่าวิธีการโจมตีที่เรียกว่า Prompt Injection สามารถนำไปแฮก AI เชิงสังเคราะห์ (GenAI) อย่าง ChatGPT ได้ จตุรวิทย์ เครือวาณิชกิจ 14/05/2024 Share Facebook Tweet Line