รอยร้าวระหว่าง Anthropic และรัฐบาลสหรัฐฯ เมื่อจริยธรรม AI ปะทะความมั่นคง
นี่คือประเด็นร้อนที่สั่นสะเทือนวงการ AI โลกครับ เมื่อ Anthropic บริษัทผู้พัฒนา AI ชั้นนำ (เจ้าของ Claude) ถูกรัฐบาลโดนัลด์ ทรัมป์ สั่ง "แบน" หรือขึ้นบัญชีดำ โดยระบุว่าเป็นความเสี่ยงต่อห่วงโซ่อุปทาน เพียงเพราะบริษัทปฏิเสธที่จะให้เทคโนโลยีของตนถูกใช้เป็นเครื่องมือสอดแนมและอาวุธสังหาร
ทำไมถึงเกิดความขัดแย้ง?
Dario Amodei ซีอีโอของ Anthropic ยืนยันว่าเขาพร้อมสนับสนุนรัฐบาล แต่มี "2 เส้นแดง" ที่จะไม่ข้ามเด็ดขาด คือ:
- การสอดแนมประชาชน (Mass Surveillance): ไม่ยอมให้ AI ถูกใช้เพื่อวิเคราะห์ข้อมูลมหาศาลเพื่อระบุตัวตนหรือพฤติกรรมของพลเมืองอเมริกัน เพราะขัดต่อหลักความเป็นส่วนตัว
- อาวุธสังหารอัตโนมัติ (Autonomous Weapons): ไม่ยอมให้เครื่องจักรตัดสินใจฆ่าคนโดยไม่มีมนุษย์ควบคุม (Human-in-the-loop)
มุมมองด้านเทคนิคและความเสี่ยง
Amodei ให้เหตุผลที่น่าสนใจว่า AI ปัจจุบันยังไม่พร้อมสำหรับสงคราม เพราะ:
- ความไม่แน่นอน (Unpredictability): AI ยังมีความผิดพลาดที่อาจนำไปสู่การยิงพวกเดียวกันเอง (Friendly Fire)
- วิกฤตการตรวจสอบ: หากคนกลุ่มเล็กๆ ควบคุมกองทัพโดรนเป็นล้านตัวโดยไม่มีการตรวจสอบ จะนำไปสู่อำนาจที่ล้นเกินและอันตราย
การเมืองหรือความมั่นคง?
การถูกแบนครั้งนี้ดูเหมือนจะเป็นการ "ลงโทษทางการเมือง" มากกว่าเหตุผลด้านความมั่นคงจริงๆ เนื่องจาก Anthropic ถูกยื่นคำขาดให้ยอมรับเงื่อนไขภายใน 3 วัน และถูกโจมตีผ่านโซเชียลมีเดียโดยที่ยังไม่มีเอกสารทางการแจ้งมาที่บริษัทด้วยซ้ำ
เรื่องนี้ไม่ใช่แค่การทะเลาะกันระหว่างบริษัทกับรัฐ แต่เป็นการตั้งคำถามว่า "เราจะยอมทิ้งหลักการประชาธิปไตย เพื่อแลกกับความได้เปรียบทางทหารหรือไม่?" Anthropic เลือกที่จะรักษา "จิตวิญญาณอเมริกัน" แม้จะต้องแลกกับการถูกขับออกจากโปรเจกต์ยักษ์ใหญ่ก็ตาม