
ほぼすべての主要な人工知能開発者は、人間の推論方法を模倣する AI モデルの構築に注力していますが、新しい研究では、これらの最先端のシステムははるかに多くのエネルギーを消費する可能性があり、電力網に対する AI の負担に対する懸念がさらに高まっていることが示されています。
木曜日に発表された研究結果によると、AI推論モデルは1,000件の書面によるプロンプトに応答するのに、推論機能がないか無効になっている代替モデルに比べて平均30倍の電力を消費したという。この研究は、Hugging Face 研究科学者のサーシャ・ルッチョーニ氏とセールスフォース社 AI サステナビリティ責任者のボリス・ガマザイチコフ氏が率いる AI エネルギー スコア プロジェクトによって実施されました。
研究者らは、アルファベット傘下のグーグルやマイクロソフト社のソフトウェア「OpenAI」など、自由に利用できる40のオープンAIモデルを評価した。中国の新興企業ディープシークのモデルを含む一部のモデルでは、エネルギー消費量に大幅な差があることが判明した。 DeepSeek R1 モデルのスリム バージョンでは、推論がオフになったときにプロンプトに応答するのにわずか 50 ワット時を使用しました。これは、50 ワットの電球を 1 時間点灯するのに必要な電力です。推論を有効にすると、同じモデルでタスクを完了するのに 7,626 ワット時が必要になりました。
AI のエネルギー需要の急増に対する厳しい目が厳しくなっています。テクノロジー企業がAIをサポートするためにますます大規模なデータセンターの建設を競う中、業界関係者は電力網に負担をかけ、消費者のエネルギーコストが上昇するのではないかと懸念を表明している。ブルームバーグの9月の調査によると、データセンター近くの地域の卸電力価格は過去5年間で267%上昇した。マイクロソフト、グーグル、アマゾン・ドット・コム社は、データセンターの建設が長期的な気候変動目標を複雑にする可能性があることを以前に認めていたように、環境面でのマイナス面もある。
1 年ちょっと前、OpenAI は o1 と呼ばれる最初の推論モデルをリリースしました。以前のソフトウェアはクエリにほぼ即座に応答しましたが、o1 は応答する前に答えを計算するのにより多くの時間を費やしました。それ以来、他の多くの AI 企業が、科学、数学、コーディングなどの分野で、より複雑で複数のステップからなる問題を解決することを目的として、同様のシステムを立ち上げてきました。
推論システムは、より複雑なタスクを実行するための業界標準となりましたが、そのエネルギー需要に関する研究はほとんどありませんでした。研究者らによると、消費電力の増加の多くは、推論モデルが応答として生成するテキストが大幅に増加したためであるという。
新しいレポートは、AI のエネルギー需要がどのように進化しているかをより深く理解することを目的としているとルッチョーニ氏は述べた。また、さまざまな行動に適したさまざまなタイプの AI モデルがあることを人々がよりよく理解するのに役立つことを期待しています。すべてのクエリで、最も計算量の多い AI 推論システムを活用する必要があるわけではありません。
「私たちはAIの使い方についてもっと賢くなる必要がある」とルッチョーニ氏は語った。 「適切な作業に適したモデルを選択することが重要です。」
電力使用量の違いをテストするために、研究者らは同じコンピュータ ハードウェア上ですべてのモデルを実行しました。彼らは、特定の年のスーパーボウルでどのチームが優勝したかを尋ねる簡単な質問から、より複雑な数学の問題まで、それぞれに同じプロンプトを使用しました。また、CodeCarbon というソフトウェア ツールを使用して、消費されたエネルギー量をリアルタイムで追跡しました。
結果は大きく異なりました。研究者らは、Microsoft の Phi 4 推論モデルの 1 つは、推論をオンにすると約 18 ワット時であるのに対し、推論をオンにすると 9,462 ワット時を消費することを発見しました。一方、OpenAI の最大の gpt-oss モデルには、それほど顕著な違いはありませんでした。最も計算量の多い「高」設定を考慮すると、8,504 ワット時が使用され、設定を「低」に下げると 5,313 ワット時が使用されました。
OpenAI、Microsoft、Google、DeepSeekはコメントの要請にすぐには応じていない。
Googleは8月に、Gemini AIサービスのミッドテキストプロンプトが0.24ワット時(Wh)のエネルギーを使用すると推定する内部調査を発表した。これは、9 秒未満のテレビ視聴にほぼ相当します。グーグルは、この数字は「多くの公的推計よりも大幅に低い」と述べた。
AI の電力消費に関する議論の多くは、人工知能システムをトレーニングするために設置された大規模施設に焦点を当ててきました。しかし、ますます多くのテクノロジー企業が、推論やトレーニング後の AI システムの実行プロセスにより多くのリソースを投入しています。推論モデルへの推進は主に、これらのシステムが推論に依存しているためです。
最近、一部のテクノロジーリーダーは、AI の電力消費を考慮する必要があることを認めています。 Microsoft CEOのSatya Nadella氏は11月のインタビューで、業界はAIデータセンターのために「エネルギーを消費するための社会的ライセンス」を取得する必要があると述べた。そのためには、テクノロジーがAIを活用して利益をもたらし、広範な経済成長を促進する必要があると同氏は主張した。


