NIST

เนื้อหาล่าสุด

NIST เตือนภัยวิธีการแฮก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้

สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) พบว่าวิธีการโจมตีที่เรียกว่า Prompt Injection สามารถนำไปแฮก AI เชิงสังเคราะห์ (GenAI) อย่าง ChatGPT ได้