รอยร้าวระหว่าง Anthropic และรัฐบาลสหรัฐฯ เมื่อจริยธรรม AI ปะทะความมั่นคง

 

นี่คือประเด็นร้อนที่สั่นสะเทือนวงการ AI โลกครับ เมื่อ Anthropic บริษัทผู้พัฒนา AI ชั้นนำ (เจ้าของ Claude) ถูกรัฐบาลโดนัลด์ ทรัมป์ สั่ง "แบน" หรือขึ้นบัญชีดำ โดยระบุว่าเป็นความเสี่ยงต่อห่วงโซ่อุปทาน เพียงเพราะบริษัทปฏิเสธที่จะให้เทคโนโลยีของตนถูกใช้เป็นเครื่องมือสอดแนมและอาวุธสังหาร

ทำไมถึงเกิดความขัดแย้ง?

Dario Amodei ซีอีโอของ Anthropic ยืนยันว่าเขาพร้อมสนับสนุนรัฐบาล แต่มี "2 เส้นแดง" ที่จะไม่ข้ามเด็ดขาด คือ:

  1. การสอดแนมประชาชน (Mass Surveillance): ไม่ยอมให้ AI ถูกใช้เพื่อวิเคราะห์ข้อมูลมหาศาลเพื่อระบุตัวตนหรือพฤติกรรมของพลเมืองอเมริกัน เพราะขัดต่อหลักความเป็นส่วนตัว
  2. อาวุธสังหารอัตโนมัติ (Autonomous Weapons): ไม่ยอมให้เครื่องจักรตัดสินใจฆ่าคนโดยไม่มีมนุษย์ควบคุม (Human-in-the-loop)

มุมมองด้านเทคนิคและความเสี่ยง

Amodei ให้เหตุผลที่น่าสนใจว่า AI ปัจจุบันยังไม่พร้อมสำหรับสงคราม เพราะ:

  • ความไม่แน่นอน (Unpredictability): AI ยังมีความผิดพลาดที่อาจนำไปสู่การยิงพวกเดียวกันเอง (Friendly Fire)
  • วิกฤตการตรวจสอบ: หากคนกลุ่มเล็กๆ ควบคุมกองทัพโดรนเป็นล้านตัวโดยไม่มีการตรวจสอบ จะนำไปสู่อำนาจที่ล้นเกินและอันตราย

การเมืองหรือความมั่นคง?

การถูกแบนครั้งนี้ดูเหมือนจะเป็นการ "ลงโทษทางการเมือง" มากกว่าเหตุผลด้านความมั่นคงจริงๆ เนื่องจาก Anthropic ถูกยื่นคำขาดให้ยอมรับเงื่อนไขภายใน 3 วัน และถูกโจมตีผ่านโซเชียลมีเดียโดยที่ยังไม่มีเอกสารทางการแจ้งมาที่บริษัทด้วยซ้ำ

เรื่องนี้ไม่ใช่แค่การทะเลาะกันระหว่างบริษัทกับรัฐ แต่เป็นการตั้งคำถามว่า "เราจะยอมทิ้งหลักการประชาธิปไตย เพื่อแลกกับความได้เปรียบทางทหารหรือไม่?" Anthropic เลือกที่จะรักษา "จิตวิญญาณอเมริกัน" แม้จะต้องแลกกับการถูกขับออกจากโปรเจกต์ยักษ์ใหญ่ก็ตาม