気候変動
生成AIの爆発的普及は、社会を劇的に進化させている一方で、その物理的な稼働を支えるインフラに多大な負荷をかけている。AIの学習と推論を支えるデータセンターは、これまで主に「電力消費」と「炭素排出」の観点から議論されてきた。しかし、その裏側で、施設の冷却に不可欠な「水」の大量消費が、新たな地球規模のリスクとして浮上している。
米国の投資家団体Ceresのミンディ・ラバーCEOが指摘するように、データセンターの成長スピードは異常な速さに達しており、それらをいかに構築し、いかに電力を供給するかが、企業の存続を左右する重大な課題となっている*1。同氏の指摘によれば、生成AIブームに牽引されたデータセンターの電力および水需要の爆発的な増加は、これまで多くのIT企業が掲げてきた「2030年までのカーボンニュートラル」という野心的な気候目標を根本から脅かしつつある。もはやテック企業は、単に安価な再生可能エネルギー証書(RECs)を購入して帳尻を合わせるような、表面的な脱炭素化でお茶を濁すことは許されなくなった。
ラバー氏は、AIの成長を維持しつつ環境負荷を抑えるためには、送電網に24時間365日クリーンな電力を供給する「24/7カーボンフリーエネルギー」への直接的なインフラ投資と、施設の冷却に伴う地域の水資源の浪費を最小化する統合的なシステム設計が不可欠であると説いている。つまり、テクノロジー企業が自らの巨大な事業基盤をいかにして物理的な環境制約に適応させ、地域社会と共存できる形で構築できるかどうかが、中長期的な投資家からの評価(バリュエーション)を決定づけ、結果として市場における企業の生死を分ける決定的な要因となっているのである。
AI演算が要求する高密度冷却の必然性
AI、特に大規模言語モデル(LLM)の処理を担うNVIDIA H100などの高性能GPUは、1チップあたりの消費電力が最大700W以上に達する。これらのチップを数万個並べたサーバーラックは、一箇所に膨大な熱を集中させる。この熱を逃がさなければ、半導体の寿命が縮まるだけでなく、熱暴走によるシステムダウンを招く。
ここから先は「ThinkESG プレミアム」会員限定の
コンテンツです。
4つの特典が受けられる「ThinkESG プレミアム会員(1ヶ月定期購読)」の詳細についてはこちらをご覧ください。
「ThinkESG プレミアム会員(1ヶ月定期購読)」へはこちらからお申し込みいただけます。









