เมื่อ Anthropic "หัก" กับ "ทรัมป์" และเพนตากอน

 

กลายเป็นเรื่องใหญ่โตเมื่อ Anthropic ผู้พัฒนา AI ชื่อดังอย่าง Claude กลายเป็นบริษัทสัญชาติอเมริกันรายแรกที่ถูกรัฐบาลตัวเองตีตราว่าเป็น "ความเสี่ยงต่อความมั่นคง" (Supply Chain Risk) โดยมีสรุปใจความสำคัญดังนี้

1. จุดเริ่มต้นของรอยร้าว

รัฐบาลสหรัฐฯ ภายใต้การนำอขงประธานาธิบดี โดนัลด์ ทรัมป์ และกระทรวงกลาโหม (Pentagon) ต้องการให้ Anthropic เปิดทางให้กองทัพเข้าถึงเครื่องมือ AI ได้อย่าง "ไม่มีเงื่อนไข" เพื่อใช้ในภารกิจต่างๆ ทางทหารและข่าวกรอง

2. เหตุผลที่ Anthropic ปฏิเสธ

ดาริโอ อโมเดอี (CEO ของ Anthropic) ยืนกรานว่าบริษัทไม่สามารถยอมรับเงื่อนไขนี้ได้ เพราะกังวลว่า AI จะถูกนำไปใช้ในทางที่ผิดศีลธรรม 2 เรื่องหลักคือ

  • การสอดแนมประชาชน: การใช้ AI รวบรวมข้อมูลส่วนตัวของชาวอเมริกันในวงกว้าง (Mass Surveillance)
  • อาวุธสังหารอัตโนมัติ: การนำ AI ไปควบคุมอาวุธให้ตัดสินใจฆ่าได้เองโดยไม่มีมนุษย์ควบคุม (Fully Autonomous Weapons) ซึ่งเขามองว่าเทคโนโลยีปัจจุบันยังไม่เสถียรพอและอันตรายเกินไป
3. มาตรการตอบโต้จากทำเนียบขาว

เมื่อตกลงกันไม่ได้ ทรัมป์จึงสั่ง "แบน" Anthropic ทันที โดยสั่งให้หน่วยงานรัฐบาลกลางทั้งหมดหยุดใช้เทคโนโลยีของบริษัทนี้ และจะยกเลิกัญญาทั้งหมดภายใน 6 เดือน พร้อมโพสต์ข้อความดุเดือดว่า "เราไม่ต้องการทำธุรกิจกับพวกเขาอีกต่อไป"

4. ก้าวต่อไป สู้กันในศาล

Anthropic ไม่ยอมแพ้ เตรียมยื่นฟ้องศาลเพื่อคัดค้านคำสั่งนี้ โดยระบุว่าการข่มขู่จากรัฐบาลจะไม่สามารถทำให้บริษัทเปลี่ยนจุดยืนเรื่องการปกป้องคุณค่าประชาธิปไตยและมโนธรรมขององค์กรได้

นี่คือการเผชิญหน้าครั้งประวัติศาสตร์ระหว่าง "จริยธรรม AI" กับ "อำนาจรัฐ" ซึ่งผลลัพธ์ของคดีนี้จะกลายเป็นบรรทัดฐานสำคัญว่า บริษัทเทคโนโลยีมีสิทธิ์แค่ไหนในการปฏิเสธไม่ให้รัฐบาลนำนวัตกรรมของตนไปใช้ในทางสงครามหรือการสอดแนมครับ