在 AI 技術進步的道路上,水資源不幸成了犧牲品。
近日 Google 發佈了《2023 年環境報告》,數據顯示其 2022 年總共消耗了 56 億加侖的水,其中約 52 億加侖用於公司的數據中心,比往年增加了 20%。
可能很多人對這個用水量沒有多大概念。先科普一下,一加侖水等於 3.7854 升,因此 56 億加侖水約等於 212.079 億升水,相當於大約 31850 個奧運標準游泳池的水量(注:一個奧運標準游泳池大約是是 250 萬升)。
那麼 Google 的數據中心的用水量為何如此大?答案並不難找。
數據中心本身就承載着傳遞、展示、計算、存儲數據信息的功能。要避免這動輒集成上百萬台服務器出故障,散熱便成了需要注意的「麻煩事」。
其中冷卻數據中心最常用的方法就是蒸發和放空。
蒸發比較好理解,就是冷卻水蒸發汽化,間接帶走服務器所產生的熱量,這是水冷型數據中心耗水量的主要部分之一。除了通過蒸發失掉水分以外,數據中心會定期對冷卻系統進行清洗,這也會消耗一定數量的水資源。
此外,與以往不同的是,近些年來,訓練 AI 也成了數據中心耗水量的「元兇」之一。
作為 Google Bard 聊天機器人的全新底層模型,(LLM)PaLM 2 想要獲得成效就得經過高強度的預訓練,參數越多,性能也就越好。公開資料顯示,PaLM 2 是在 3.6 萬億個 token 上訓練的,作為對比,上代 PaLM 也僅接受了 7800 億 token 的訓練。
巧合的是,正如加州大學副教授 Shaolei Ren 所説:「用水量增加 20% 大致與谷歌計算能力的增長一致,而谷歌的計算能力主要是由人工智能推動的。」
的確,如此龐大的訓練量也就意味着需要更強的算力中心。要讓那成千上萬張顯卡穩定安全地提供算力,也同樣得配備一套蒸發冷卻裝置來將空間保持在理想温度。
原理也比較相似,就是利用蒸發水來散熱,但運行起來需要消耗大量的清水,並且在循環的過程裏,1%-2% 的水作為細水霧被風吹走,在能量循環的定理下,日積月累,自然造就了巨大的水資源消耗。
卡羅拉多大學與德克薩斯大學的研究人員在一篇《讓 AI 更節水》的預印論文中也發佈了訓練 AI 的用水估算結果。
結果發現,訓練 GPT-3 所需的清水量相當於填滿一個核反應堆的冷卻塔所需的水量(一些大型核反應堆可能需要幾千萬到上億加侖的水)。ChatGPT(在 GPT-3 推出之後)每與用户交流 25-50 個問題,就得「喝掉」一瓶 500 毫升的水來降降温。
而這些水資源往往都是可被用作「飲用水」的淡水。
Google 在最新報告中表示,考慮到當地水資源的壓力,在過去一年消耗的 56 億加侖水中,其中 82% 的水資源來自水資源壓力較小的地區。
但顯然,這些大模型背後的公司不可能總是作出最環保的選擇。那剩下的 18%,Google 則模糊地表示「正在探索新的合作伙伴關係和機會。」
值得注意的是,倘若將視野放在全球,伴隨着全球大模型「軍備競賽」的日漸火熱化,數據中心水資源的消耗速度也超乎想象。
只不過,他們光顧着抬頭看對手的訓練進度,又怎麼會低頭注意腳下的水資源呢?
資料來源:愛範兒(ifanr)
近日 Google 發佈了《2023 年環境報告》,數據顯示其 2022 年總共消耗了 56 億加侖的水,其中約 52 億加侖用於公司的數據中心,比往年增加了 20%。
可能很多人對這個用水量沒有多大概念。先科普一下,一加侖水等於 3.7854 升,因此 56 億加侖水約等於 212.079 億升水,相當於大約 31850 個奧運標準游泳池的水量(注:一個奧運標準游泳池大約是是 250 萬升)。
那麼 Google 的數據中心的用水量為何如此大?答案並不難找。
數據中心本身就承載着傳遞、展示、計算、存儲數據信息的功能。要避免這動輒集成上百萬台服務器出故障,散熱便成了需要注意的「麻煩事」。
其中冷卻數據中心最常用的方法就是蒸發和放空。
蒸發比較好理解,就是冷卻水蒸發汽化,間接帶走服務器所產生的熱量,這是水冷型數據中心耗水量的主要部分之一。除了通過蒸發失掉水分以外,數據中心會定期對冷卻系統進行清洗,這也會消耗一定數量的水資源。
此外,與以往不同的是,近些年來,訓練 AI 也成了數據中心耗水量的「元兇」之一。
作為 Google Bard 聊天機器人的全新底層模型,(LLM)PaLM 2 想要獲得成效就得經過高強度的預訓練,參數越多,性能也就越好。公開資料顯示,PaLM 2 是在 3.6 萬億個 token 上訓練的,作為對比,上代 PaLM 也僅接受了 7800 億 token 的訓練。
巧合的是,正如加州大學副教授 Shaolei Ren 所説:「用水量增加 20% 大致與谷歌計算能力的增長一致,而谷歌的計算能力主要是由人工智能推動的。」
的確,如此龐大的訓練量也就意味着需要更強的算力中心。要讓那成千上萬張顯卡穩定安全地提供算力,也同樣得配備一套蒸發冷卻裝置來將空間保持在理想温度。
原理也比較相似,就是利用蒸發水來散熱,但運行起來需要消耗大量的清水,並且在循環的過程裏,1%-2% 的水作為細水霧被風吹走,在能量循環的定理下,日積月累,自然造就了巨大的水資源消耗。
卡羅拉多大學與德克薩斯大學的研究人員在一篇《讓 AI 更節水》的預印論文中也發佈了訓練 AI 的用水估算結果。
結果發現,訓練 GPT-3 所需的清水量相當於填滿一個核反應堆的冷卻塔所需的水量(一些大型核反應堆可能需要幾千萬到上億加侖的水)。ChatGPT(在 GPT-3 推出之後)每與用户交流 25-50 個問題,就得「喝掉」一瓶 500 毫升的水來降降温。
而這些水資源往往都是可被用作「飲用水」的淡水。
Google 在最新報告中表示,考慮到當地水資源的壓力,在過去一年消耗的 56 億加侖水中,其中 82% 的水資源來自水資源壓力較小的地區。
但顯然,這些大模型背後的公司不可能總是作出最環保的選擇。那剩下的 18%,Google 則模糊地表示「正在探索新的合作伙伴關係和機會。」
值得注意的是,倘若將視野放在全球,伴隨着全球大模型「軍備競賽」的日漸火熱化,數據中心水資源的消耗速度也超乎想象。
只不過,他們光顧着抬頭看對手的訓練進度,又怎麼會低頭注意腳下的水資源呢?
資料來源:愛範兒(ifanr)
請按此登錄後留言。未成為會員? 立即註冊