
TL;DR
จากบทความที่ผ่าน ๆ มาเราได้พูดถึงเรื่องการนำ AI เข้ามาช่วยงานเราไม่ว่าจะเป็นการช่วยเขียน โค้ด คอนเทนต์ ฯลฯ ในบทความนี้เราจะมาดูอีกด้านนึงกันว่าการใช้ AI ส่งผลกระทบอะไรต่อสิ่งแวดล้อมบ้าง โดยเฉพาะเรื่องการใช้น้ำจืดในการระบายความร้อนของศูนย์ข้อมูล (Data Center) ที่เป็นหัวใจของการทำงานของ AI การใช้ AI หนึ่งครั้งอาจดูเล็กน้อย แต่เมื่อรวมกันทั่วโลก กลับกลายเป็นภาระต่อทรัพยากรน้ำที่สำคัญของโลก
📚ทำไม AI ถึงต้องใช้น้ำ?
AI โดยเฉพาะโมเดลขนาดใหญ่ (Large Language Models หรือ LLMs) ต้องการพลังงานมหาศาลในการประมวลผลข้อมูล ซึ่งการใช้พลังงานนี้ทำให้เกิดความร้อนสูงในเซิร์ฟเวอร์ของศูนย์ข้อมูล เพื่อป้องกันไม่ให้เครื่องจักรเหล่านี้ร้อนเกินไปและเสียหาย จึงต้องมีระบบระบายความร้อน ซึ่งส่วนใหญ่ใช้ “น้ำจืด” ในการทำความเย็น
แม้ว่าน้ำทะเลจะมีปริมาณมากและดูเหมือนเป็นทางเลือกที่ดีในการระบายความร้อน แต่ในความเป็นจริง การใช้น้ำทะเลหรือแม้แต่น้ำเค็มในการระบายความร้อนของศูนย์ข้อมูลนั้นมีข้อจำกัดหลายประการ ดังนี้:
- การกัดกร่อนของอุปกรณ์: น้ำทะเลมีปริมาณเกลือและแร่ธาตุสูง ซึ่งสามารถทำให้เกิดการกัดกร่อนของโลหะในระบบระบายความร้อน เช่น ท่อและเครื่องแลกเปลี่ยนความร้อน การกัดกร่อนนี้สามารถลดอายุการใช้งานของอุปกรณ์และเพิ่มค่าใช้จ่ายในการบำรุงรักษา
- การสะสมของตะกรันและสิ่งสกปรก: แร่ธาตุในน้ำทะเลสามารถสะสมเป็นตะกรันในท่อและเครื่องแลกเปลี่ยนความร้อน ซึ่งลดประสิทธิภาพในการระบายความร้อนและเพิ่มความเสี่ยงต่อการอุดตันของระบบ
- ความซับซ้อนในการบำบัดน้ำ: การใช้น้ำทะเลต้องการระบบบำบัดน้ำที่ซับซ้อนเพื่อกำจัดเกลือและแร่ธาตุที่อาจเป็นอันตรายต่ออุปกรณ์ ซึ่งเพิ่มต้นทุนในการดำเนินงานและการบำรุงรักษา
- ผลกระทบต่อสิ่งแวดล้อม: การปล่อยน้ำทะเลที่ผ่านการใช้งานแล้วกลับคืนสู่ทะเลอาจมีอุณหภูมิสูงขึ้น ซึ่งสามารถส่งผลกระทบต่อระบบนิเวศทางทะเล เช่น การเปลี่ยนแปลงของอุณหภูมิน้ำที่อาจส่งผลต่อสิ่งมีชีวิตในทะเล
ด้วยเหตุผลเหล่านี้ ศูนย์ข้อมูลส่วนใหญ่จึงเลือกใช้น้ำจืดในการระบายความร้อน เนื่องจากมีความบริสุทธิ์สูงกว่า ลดความเสี่ยงต่อการกัดกร่อนและการสะสมของตะกรันในระบบ อย่างไรก็ตาม การใช้น้ำจืดก็มีข้อจำกัดในเรื่องของปริมาณและความยั่งยืน ดังนั้น การพัฒนาเทคโนโลยีระบายความร้อนที่ใช้ทรัพยากรน้ำอย่างมีประสิทธิภาพและยั่งยืนจึงเป็นสิ่งสำคัญในอนาคต
💧ปริมาณน้ำที่ใช้ต่อการถามคำถาม 1 ครั้ง

แม้ว่าการถามคำถามกับ AI หนึ่งครั้งจะดูเล็กน้อย แต่เมื่อคำนวณรวมกันทั่วโลก ปริมาณน้ำที่ใช้กลับมหาศาล [แหล่งข้อมูลอ้างอิง]
- ChatGPT-4: การตอบคำถามประมาณ 100 คำ ใช้น้ำประมาณ 500 มิลลิลิตร หรือเทียบเท่าขวดน้ำขนาดกลางหนึ่งขวด
- LLaMA-3 70B: การเขียนรายงาน 10 หน้า ใช้น้ำประมาณ 0.7 ลิตร ขณะที่ GPT-4 ใช้น้ำถึง 60 ลิตรสำหรับงานเดียวกัน
- การใช้ AI หนัก: ผู้ใช้ที่ถามคำถามกับ AI 500 ครั้งต่อวัน อาจใช้น้ำถึง 7.6 ลิตรต่อวัน
⚠️ ปัญหาหลักที่เกิดขึ้น
- การขาดแคลนน้ำสะอาด: ศูนย์ข้อมูลที่ใช้ระบบระบายความร้อนด้วยน้ำจืดจำนวนมาก อาจทำให้ชุมชนใกล้เคียงขาดแคลนน้ำสำหรับการบริโภคและการเกษตร
- ผลกระทบต่อสิ่งแวดล้อม: การใช้น้ำจำนวนมากในพื้นที่ที่มีปัญหาภัยแล้ง อาจทำให้ระบบนิเวศท้องถิ่นเสียหาย
- การเพิ่มขึ้นของคาร์บอนฟุตพริ้นท์: การผลิตพลังงานที่ใช้ในศูนย์ข้อมูลมักมาจากแหล่งที่ปล่อยก๊าซเรือนกระจก ส่งผลให้ปัญหาโลกร้อนรุนแรงขึ้น
👨💻ผู้ใช้ทั่วไปสามารถช่วยลดปัญหาได้อย่างไร?
แม้ว่าเราจะไม่ได้เป็นเจ้าของศูนย์ข้อมูลหรือพัฒนาโมเดล AI เอง แต่พฤติกรรมการใช้งานของเราสามารถช่วยลดผลกระทบต่อสิ่งแวดล้อมได้ ดังนี้:
- ใช้คำถามที่กระชับ: หลีกเลี่ยงการใช้คำฟุ่มเฟือย เช่น “please”, “thank you” ที่ไม่จำเป็นในการสื่อสารกับ AI
- ผลกระทบ: การลดคำที่ไม่จำเป็นสามารถลดจำนวน token ที่ใช้ในการประมวลผลได้ ซึ่งช่วยลดการใช้พลังงานและน้ำในการระบายความร้อนของเซิร์ฟเวอร์
- ลดการใช้ AI ในเรื่องเล็กน้อย: พิจารณาว่าคำถามนั้นจำเป็นต้องใช้ AI หรือไม่ หากสามารถหาคำตอบได้จากแหล่งอื่น ควรเลือกวิธีนั้น
- ผลกระทบ: การลดการใช้ AI ในเรื่องที่ไม่จำเป็นช่วยลดภาระของศูนย์ข้อมูลและลดการใช้ทรัพยากร
- ใช้ AI อย่างมีสติ: ตั้งเป้าหมายในการใช้ AI ให้ชัดเจน เพื่อหลีกเลี่ยงการถามคำถามซ้ำซ้อนหรือไม่จำเป็น
- ผลกระทบ: การใช้งานอย่างมีสติช่วยเพิ่มประสิทธิภาพในการใช้ AI และลดการใช้ทรัพยากรที่ไม่จำเป็น
- ตระหนักถึงการทำงานเบื้องหลังของ AI-integrated tools: เครื่องมือที่มี AI ฝังอยู่ เช่น CoPilot หรือฟีเจอร์ autocomplete ในแอปพลิเคชันต่าง ๆ มักทำงานอยู่เบื้องหลังโดยอัตโนมัติ ซึ่งอาจทำให้เกิดการประมวลผลที่ไม่จำเป็นและเพิ่มการใช้พลังงานและน้ำโดยไม่รู้ตัว
- แนวทางปฏิบัติ: ผู้ใช้ควรตรวจสอบและปรับการตั้งค่าเพื่อปิดการทำงานอัตโนมัติที่ไม่จำเป็น และใช้ฟีเจอร์ AI เฉพาะเมื่อจำเป็นเท่านั้น
- ผลกระทบ: การลดการทำงานเบื้องหลังของ AI-integrated tools ช่วยลดภาระของศูนย์ข้อมูลและลดการใช้ทรัพยากร
- ใช้เทคนิค Chain of Draft (CoD) แทน Chain of Thought (CoT): CoD เป็นเทคนิคการเขียน prompt ที่เน้นให้ AI สรุปขั้นตอนการคิดอย่างกระชับ โดยลดการใช้ token ลงได้ถึง 92% เมื่อเทียบกับ CoT
- ประหยัดน้ำ: การลด token ลง 92% หมายถึงการลดการใช้น้ำในการประมวลผลลงอย่างมาก เช่น หากการใช้ CoT ใช้น้ำ 500 มิลลิลิตรต่อคำถาม การใช้ CoD จะใช้น้ำเพียงประมาณ 40 มิลลิลิตร
- ลดค่าใช้จ่าย: การใช้ CoD ช่วยลดต้นทุนในการใช้ AI ได้อย่างมีนัยสำคัญ
- เพิ่มความเร็วในการตอบสนอง: CoD ช่วยให้ AI ตอบสนองได้เร็วขึ้น เนื่องจากมีการประมวลผลที่น้อยลง
Chain of Thought (CoT) เป็นเทคนิคการกระตุ้นโมเดลภาษาขนาดใหญ่ (LLM) ให้แสดงเหตุผลแบบทีละขั้นตอน เพื่อให้เข้าใจและแก้ปัญหาที่ซับซ้อนได้อย่างถูกต้อง เช่น คณิตศาสตร์หรือการอนุมานเชิงตรรกะ โดยมีการอธิบายกระบวนการคิดอย่างละเอียด ในทางตรงกันข้าม Chain of Draft (CoD) เป็นแนวทางใหม่ที่เน้นการให้โมเดลสร้างร่างคำตอบที่สั้น กระชับ และมีข้อมูลสำคัญในแต่ละขั้นตอน คล้ายกับวิธีที่มนุษย์จดบันทึกแบบย่อๆ เพื่อเพิ่มประสิทธิภาพ ลดการใช้ทรัพยากร และยังคงความแม่นยำในการให้คำตอบ การนำเทคนิค CoD มาใช้ในการสื่อสารกับ AI ไม่เพียงแต่ช่วยลดผลกระทบต่อสิ่งแวดล้อม แต่ยังช่วยให้การใช้งาน AI มีประสิทธิภาพมากขึ้นอีกด้วย
🇹🇭 ประเทศไทยควรรับมืออย่างไรหากมีการตั้ง Data Center
- การวางแผนทรัพยากรน้ำ: ประเมินความสามารถในการรองรับการใช้น้ำของพื้นที่ก่อนอนุญาตให้ตั้งศูนย์ข้อมูล
- การใช้เทคโนโลยีระบายความร้อนที่ประหยัดน้ำ: ส่งเสริมการใช้ระบบระบายความร้อนที่ใช้เทคโนโลยีใหม่ เช่น การใช้ลมระบายความร้อนแทนน้ำ
- การกำกับดูแลอย่างเข้มงวด: กำหนดมาตรการควบคุมการใช้น้ำของศูนย์ข้อมูล และตรวจสอบการปฏิบัติตามอย่างเคร่งครัด
🏢 วิธีการที่ผู้ให้บริการ Data Center ใช้ในการแก้ปัญหา
- Microsoft:
- พัฒนาโครงการ “Sustainable by Design” ที่มุ่งลดการใช้น้ำผ่านเทคโนโลยีระบายความร้อนแบบใหม่ เช่น การระบายความร้อนโดยตรงที่ชิป
- ใช้ระบบระบายความร้อนแบบ “immersive cooling” คือแช่เซิร์ฟเวอร์ในของเหลวที่ไม่เป็นสื่อไฟฟ้าแทนน้ำ นอกจากนี้ยังวางเป้าหมายเป็นบริษัท “Water Positive” ภายในปี 2030 หมายถึงคืนปริมาณน้ำให้ธรรมชาติมากกว่าที่ใช้ไป
- Google: พัฒนาเทคโนโลยี AI เพื่อบริหารจัดการการใช้พลังงานและน้ำใน Data Center โดยใช้การระบายความร้อนจากอากาศภายนอก (air cooling) และระบบรีไซเคิลน้ำในหลายพื้นที่
- Meta (Facebook): ลงทุนในระบบระบายความร้อนด้วยอากาศ (Evaporative Cooling) ที่ใช้พลังงานต่ำและใช้น้ำน้อย พร้อมทั้งตั้งเป้าหมายใช้พลังงานหมุนเวียน 100% ในการขับเคลื่อนศูนย์ข้อมูล
- Amazon AWS: ใช้ระบบหมุนเวียนน้ำในบางศูนย์ และร่วมมือกับหน่วยงานท้องถิ่นเพื่อบริหารจัดการการใช้น้ำอย่างยั่งยืน
บทสรุป
AI ไม่ได้ใช้งานแค่พลังงานจากไฟฟ้าเท่านั้น แต่ยัง “ดื่มน้ำ” จำนวนมหาศาลเพื่อระบายความร้อนให้กับเซิร์ฟเวอร์ที่คอยตอบคำถามให้เราในทุกวัน หากเราไม่ตระหนักถึงผลกระทบด้านสิ่งแวดล้อมเหล่านี้ การเติบโตของเทคโนโลยีอาจแลกมาด้วยวิกฤตด้านน้ำในอนาคต การใช้งาน AI อย่างมีสติจึงไม่ใช่แค่เรื่องของประสิทธิภาพ แต่เป็นเรื่องของความรับผิดชอบต่อโลกด้วย
---
AI DETA มีประสบการณ์และความเชี่ยวชาญในการออกแบบและพัฒนาระบบสารสนเทศ, การพัฒนาระบบ ERP และการปรับแต่ง Odoo ERP, การพัฒนาและจัดการ Cloud-Based Solution/Application, โซลูชันด้านข้อมูล การเรียนรู้ของเครื่องจักร และปัญญาประดิษฐ์ (Data/ML/AI Solution), รวมถึงการให้คำปรึกษา หรือ Outsource ให้แก่องค์กรต่าง ๆ และพวกเราพร้อมเป็นส่วนหนึ่งในการทำ Digital Transformation ให้กับองค์กรของคุณ
หากมีความสนใจให้พวกเราเป็นผู้พัฒนาระบบหรือให้คำปรึกษา หรือต้องการสอบถามอัตราค่าบริการต่าง ๆ สามารถติดต่อได้ทางอีเมล [email protected] หรือดูรายละเอียดได้ที่เว็บไซต์ https://aideta.com
---
อ้างอิง