อดีตพนักงานและพนักงานหลายคนของ OpenAI และ Google – DeepMind ได้เผยแพร่จดหมายเปิดผนึกถึงอันตรายของ AI ขั้นสูงรวมถึงเรื่องการควบคุมและการดูแลของบริษัทที่ดำเนินการเกี่ยวกับเทคโนโลยี AI ในปัจจุบัน
เหล่าพนักงานระบุว่ามีความเสี่ยงหลายประการที่เรากำลังจะเผชิญกับการพัฒนาของ AI เช่น ประเด็นเรื่องความแบ่งแยก การบิดเบือนข้อมูล รวมถึงการสูญเสียการควบคุม AI แบบอัตโนมัติ ซึ่งถือว่าเป็นประเด็นที่อันตราย ท้ายที่สุดอาจนำไปสู่การสูญพันธุ์ของมนุษย์ได้เลย โดยทั่วไปแล้ว บริษัท AI มีแรงขับเคลื่อนจากเม็ดเงินที่แข็งแกร่งมาก ในการก้าวไปข้างหน้านั้น บริษัทเหล่านี้เลือกที่จะพัฒนาโดยหลีกเลี่ยงการแบ่งปันข้อมูลเกี่ยวกับมาตรการป้องกันและระดับความเสี่ยงของเทคโนโลยี
ส่วนหนึ่งของเนื้อหาในจดหมายระบุว่า ตราบใดที่ยังไม่มีการกำกับดูแลอย่างมีประสิทธิภาพ อดีตพนักงานและพนักงานปัจจุบันที่เกี่ยวข้องกับ AI เป็นเพียงกลุ่มคนเล็ก ๆ ที่ทราบเรื่องเหล่านี้ และทำให้บริษัทเหล่านี้แสดงความรับผิดชอบต่อสาธารณะได้ แต่เนื่องจากข้อตกลงในการรักษาความลับ ทำให้พนักงานไม่สามารถพูดอะไรได้มากนัก ยกเว้นว่าบริษัทเหล่านั้นไม่สามารถแก้ไขปัญหาที่เกิดขึ้นได้ และหากพูดออกไปก็จะเป็นปัญหาด้านกฎหมายตามมาในภายหลัง ซึ่งการคุ้มครองทางกฎหมายก็ไม่เพียงพอด้วย
ท้ายที่สุด พนักงานก็เรียกร้องให้มีกฎหมายที่มีการคุ้มครองบุคคลที่แจ้งหรือรายงานความเสี่ยงของ AI ด้วย เช่น
- เสนอกระบวนการแจ้งหรือรายงานความเสี่ยงของ AI โดยไม่ระบุตัวตน แต่สามารถตรวจสอบได้ เพื่อแจ้งความเสี่ยงต่อคณะกรรมการ หน่วยงานกำกับดูแล และองค์กรอิสระที่มีความเชี่ยวชาญ
- สนับสนุนวัฒนธรรมการวิพากษ์วิจารณ์อย่างเปิดเผย เพื่อให้พนักงานสามารถแจ้งความเสี่ยงที่เกี่ยวข้องกับเทคโนโลยีให้หน่วยงานทราบได้
- หลีกเลี่ยงการลงโทษ/โต้ตอบพนักงานที่เปิดเผยความเสี่ยง/ข้อมูลที่เป็นความลับต่อสาธารณะ หากกระบวนการอื่นล้มเหลว
พนักงานที่เขียนจดหมายเปิดผนึกมีทั้งหมด 13 คน ได้แก่ อดีตพนักงานจาก OpenAI 7 คน พนักงานปัจจุบัน 4 คน, อดีตพนักงานและพนักงานปัจจุบันจาก Google DeepMind อย่างละ 1 คน โดย OpenAI ได้ข่มขู่พนักงานเกี่ยวกับประเด็นนี้ด้วย และบังคับให้พนักงานเซ็น NDA เพื่อปิดปากไม่ให้วิพากษ์วิจารณ์ด้านลบของ AI