จาก "ลม" สู่ "น้ำ": เมื่อแอร์บ้าน ๆ เอาไม่อยู่สำหรับ AI

 

ในยุคที่ AI เติบโตอย่างก้าวกระโดด ดาต้าเซ็นเตอร์ไม่ได้แค่เก็บข้อมูลทั่วไปอีกต่อไป แต่ต้องประมวลผลผ่าน GPU มหาศาล ซึ่งสร้างความร้อนสูงเกินกว่าที่ระบบระบายความร้อนด้วยอากาศ (Air Cooling) จะรับไหว

สถิติที่น่าตกใจ

  • อดีต: ดาต้าเซ็นเตอร์ใช้ไฟประมาณ 10-20 kW ต่อตู้แร็ค
  • ปัจจุบัน (NVIDIA AI): พุ่งไปถึง 142 kW ต่อตู้แร็ค
  • อนาคต: คาดการณ์ว่าจะสูงถึง 1 MW (1,000 kW) ต่อตู้แร็ค
  • ด้วยเหตุนี้ ระบบระบายความร้อนด้วยของเหลว (Liquid Cooling) โดยเฉพาะแบบ DLC (Direct Liquid Cooling) ที่ส่งของเหลวไปที่ตัวชิปโดยตรง จึงกลายเป็น "ความจำเป็น" ไม่ใช่แค่ทางเลือกครับ

3 ความเสี่ยงใหญ่ที่ต้องรับมือ

แม้ระบบระบายน้ำจะระบายความร้อนได้ดีกว่าอากาศถึง 23 เท่า แต่การเปลี่ยนผ่านนี้มาพร้อมกับท้าทายที่ Schneider Electric สรุปไว้ดังนี้ครับ

  1. การกัดกร่อนจากวัสดุไม่เข้ากัน: ของเหลวที่ใช้ (เช่น DI Water) อาจทำปฏิกิริยากับโลหะในระบบจนเกิดสนิมหรือคราวชีวภาพ หากเลือกวัสดุท่อหรือวาล์วผิดประเภท เซิร์ฟเวอร์ราคาแพงอาจพังได้
  2. ความสับสนเรื่องการรับประกัน (SLA): ระบบน้ำมีความซับซ้อนสูง ถ้าออกแบบแรงดันหรืออุณหภูมิพลาดเพียงนิดเดียว อาจหลุดประกันอุปกรณ์ทันที และหากใช้หลายซัพพลายเออร์เกินไป อาจเกิดปัญหา "โยนกันไปมา" เมื่อระบบมีปัญหา
  3. เสียโอกาสประหยัดพลังงาน: หากออกแบบระบบน้ำร่วมกับระบบลมเดิมไม่ดีพอ จะทำให้เสียโอกาสใช้ประโยชน์จาก Free Cooling (การใช้ความเย็นจากธรรมชาติ) ทำให้ค่าไฟยังพุ่งสูงเกินความจำเป็น

ทางออกคือ "พันธมิตรแบบครบวงจร"

การจัดการความร้อนระดับสูงต้องอาศัยผู้เชี่ยวชาญอย่าง Motivair by Schneider Electric ที่มีประสบการณ์ในซูเปอร์คอมพิวเตอร์มานาน เพื่อวางระบบตั้งแต่การออกแบบ ติดตั้ง ไปจนถึงการดูแลระยะยาว เพื่อให้ดาต้าเซ็นเตอร์ AI มั่นคงและยั่งยืนที่สุดครับ