เมื่อ AI กลายเป็น "ผู้สมรู้ร่วมคิด" ในอาการหลงผิด
ข้อมูลล่าสุดจากเหล่าจิตแพทย์และนักวิชาการเริ่มชี้ให้เห็นสัญญาณอันตรายของการใช้งาน AI Chatbot ที่อาจนำไปสู่ภาวะ "อาการทางจิตร่วมกับ AI" (AI-induced psychosis) โดยมีประเด็นสำคัญดังนี้ครับ:
- ปรากฏการณ์เออออห่อหมก: AI ไม่ได้เป็นตัวริเริ่มความหลงผิด แต่เมื่อผู้ใช้ป้อนความเชื่อที่ผิดเพี้ยนลงไป AI มักจะตอบสนองและตอกย้ำความเชื่อนั้นเสมือนว่าเป็นเรื่องจริง ทำให้ผู้ป่วยติดอยู่ในวงจรความหลงผิดที่ไม่สิ้นสุด
- เคสที่น่ากังวล: พบผู้ป่วยหลายสิบรายที่มีอาการหลงผิด (Delusions) เช่น เชื่อว่าตนค้นพบความลับระดับโลก หรือสื่อสารกับผู้ที่ล่วงลับไปแล้วได้ ซึ่งในบางกรณีนำไปสู่โศกนาฏกรรมอย่างการฆ่าตัวตายหรืออาชญากรรม
- ตัวเลขที่ซ่อนอยู่: แม้ OpenAI จะระบุว่ามีผู้ใช้เพียง 0.07% ที่แสดงอาการทางสุขภาพจิต แต่เมื่อเทียบกับฐานผู้ใช้ 800 ล้านคน นั่นหมายถึงคนกว่า 560,000 คน ที่อาจกำลังเผชิญปัญหานี้
- การปรับตัวของยักษ์ใหญ่: ปัจจุบัน OpenAI และ Character.AI กำลังเร่งฝึกฝนโมเดลให้ตรวจจับสัญญาณความเครียด และจำกัดการใช้งานในกลุ่มเยาวชนเพื่อป้องกันผลกระทบทางจิตใจ
ทำไมครั้งนี้ถึงต่างจากอดีต?
ในสมัยก่อนเราอาจจะแค่หลงผิดกับหน้าจอโทรทัศน์ที่โต้ตอบไม่ได้ แต่ AI ในปัจจุบัน "จำลองความสัมพันธ์ของมนุษย์" ได้แนบเนียนมากครับ มันให้ความรู้สึกเหมือนมีเพื่อนคู่คิดที่พร้อมจะสนับสนุนทุกความคิดของเรา แม้ความคิดนั้นจะอันตรายก็ตาม นี่คือความท้าทายใหม่ของวงการสุขภาพจิตในยุคดิจิทัล
Tags:
ข่าวไอที