จาก "ลม" สู่ "น้ำ": เมื่อแอร์บ้าน ๆ เอาไม่อยู่สำหรับ AI
ในยุคที่ AI เติบโตอย่างก้าวกระโดด ดาต้าเซ็นเตอร์ไม่ได้แค่เก็บข้อมูลทั่วไปอีกต่อไป แต่ต้องประมวลผลผ่าน GPU มหาศาล ซึ่งสร้างความร้อนสูงเกินกว่าที่ระบบระบายความร้อนด้วยอากาศ (Air Cooling) จะรับไหว
สถิติที่น่าตกใจ
- อดีต: ดาต้าเซ็นเตอร์ใช้ไฟประมาณ 10-20 kW ต่อตู้แร็ค
- ปัจจุบัน (NVIDIA AI): พุ่งไปถึง 142 kW ต่อตู้แร็ค
- อนาคต: คาดการณ์ว่าจะสูงถึง 1 MW (1,000 kW) ต่อตู้แร็ค
- ด้วยเหตุนี้ ระบบระบายความร้อนด้วยของเหลว (Liquid Cooling) โดยเฉพาะแบบ DLC (Direct Liquid Cooling) ที่ส่งของเหลวไปที่ตัวชิปโดยตรง จึงกลายเป็น "ความจำเป็น" ไม่ใช่แค่ทางเลือกครับ
3 ความเสี่ยงใหญ่ที่ต้องรับมือ
แม้ระบบระบายน้ำจะระบายความร้อนได้ดีกว่าอากาศถึง 23 เท่า แต่การเปลี่ยนผ่านนี้มาพร้อมกับท้าทายที่ Schneider Electric สรุปไว้ดังนี้ครับ
- การกัดกร่อนจากวัสดุไม่เข้ากัน: ของเหลวที่ใช้ (เช่น DI Water) อาจทำปฏิกิริยากับโลหะในระบบจนเกิดสนิมหรือคราวชีวภาพ หากเลือกวัสดุท่อหรือวาล์วผิดประเภท เซิร์ฟเวอร์ราคาแพงอาจพังได้
- ความสับสนเรื่องการรับประกัน (SLA): ระบบน้ำมีความซับซ้อนสูง ถ้าออกแบบแรงดันหรืออุณหภูมิพลาดเพียงนิดเดียว อาจหลุดประกันอุปกรณ์ทันที และหากใช้หลายซัพพลายเออร์เกินไป อาจเกิดปัญหา "โยนกันไปมา" เมื่อระบบมีปัญหา
- เสียโอกาสประหยัดพลังงาน: หากออกแบบระบบน้ำร่วมกับระบบลมเดิมไม่ดีพอ จะทำให้เสียโอกาสใช้ประโยชน์จาก Free Cooling (การใช้ความเย็นจากธรรมชาติ) ทำให้ค่าไฟยังพุ่งสูงเกินความจำเป็น
ทางออกคือ "พันธมิตรแบบครบวงจร"
การจัดการความร้อนระดับสูงต้องอาศัยผู้เชี่ยวชาญอย่าง Motivair by Schneider Electric ที่มีประสบการณ์ในซูเปอร์คอมพิวเตอร์มานาน เพื่อวางระบบตั้งแต่การออกแบบ ติดตั้ง ไปจนถึงการดูแลระยะยาว เพื่อให้ดาต้าเซ็นเตอร์ AI มั่นคงและยั่งยืนที่สุดครับ
Tags:
ข่าวไอที