จีนขยับคุม "AI เพื่อนคู่คิด" เน้นความปลอดภัยทางจิตใจ

 

จีนกำลังสร้างมาตรฐานใหม่ให้โลกด้วยการออกร่างกฎระเบียบควบคุม "บริการ AI เชิงโต้ตอบเสมือนมนุษย์" (Human-like interactive AI services) โดยสำนักงานบริหารไซเบอร์สเปซแห่งประเทศจีน (CAC) เพื่อป้องกันความเสี่ยงที่แชตบอตจะส่งผลกระทบด้านลบต่อสุขภาพจิตของผู้ใช้

6 มาตรการหลักที่ต้องจับตามอง:

  1. ห้ามยุยง-บงการ: สั่งห้าม AI สร้างเนื้อหาที่ยุยงให้เกิดการทำร้ายตนเอง ฆ่าตัวตาย หรือใช้จิตวิทยาบงการอารมณ์จนเกิดความเสียหายต่อสุขภาพจิต
  2. มนุษย์ต้องเข้าแทรกแซง: หากระบบตรวจพบว่าผู้ใช้ระบุถึงการฆ่าตัวตายอย่างชัดเจน ต้องสลับให้ "เจ้าหน้าที่ที่เป็นมนุษย์" เข้ามาดูแลทันที และแจ้งผู้ปกครองหรือผู้เกี่ยวข้อง
  3. เกราะคุ้มกันเยาวชน: ผู้เยาว์ต้องได้รับความยินยอมจากผู้ปกครอง และมีการจำกัดเวลาใช้งาน (Time Limit) หากระบบไม่แน่ใจอายุ ให้ตั้งค่าเป็นโหมดเด็กไว้ก่อน (Default-to-minor)
  4. ป้องกันการเสพติด: บังคับให้ระบบแจ้งเตือน (Pop-up reminder) เมื่อมีการใช้งานต่อเนื่องเกิน 2 ชั่วโมง เพื่อลดภาวะพึ่งพา AI มากเกินไป
  5. ความเข้มงวดตามขนาด: แชตบอตที่มีผู้ใช้จำนวนมาก (ลงทะเบียน > 1 ล้านคน หรือ MAU > 1 แสนคน) จะต้องผ่านการประเมินความมั่นคงปลอดภัยอย่างเข้มงวด
  6. สนับสนุนเชิงบวก: แม้จะคุมเข้ม แต่รัฐบาลยังสนับสนุนการใช้ AI เพื่อการเผยแพร่วัฒนธรรมและเป็นเพื่อนดูแลผู้สูงอายุ

ทำไมเรื่องนี้ถึงสำคัญ?

การขยับตัวครั้งนี้สะท้อนให้เห็นถึงการเปลี่ยนผ่านจากการควบคุมแค่ "เนื้อหา" (Content Safety) ไปสู่การดูแล "อารมณ์" (Emotional Safety) ท่ามกลางกระแสการเติบโตของแอปฯ อย่าง Talkie AI ของ Minimax หรือ Z.ai ที่กำลังจะเข้าสู่ตลาดหุ้น ซึ่งมีผู้ใช้งานรวมกันหลายสิบล้านคน

นอกจากนี้ ยังเป็นประเด็นที่คนทั่วโลกกังวล หลังมีกรณีครอบครัวในสหรัฐฯ ฟ้องร้องบริษัท AI จากเหตุเศร้าสลดของบุตรชาย จีนจึงเลือกที่จะเป็นผู้นำในการวางโครงสร้างทางกฎหมายเพื่อล้อมคอกปัญหานี้ก่อนที่เทคโนโลยีจะหยั่งรากลึกจนยากจะควบคุมครับ