ワット・ビット連携の概要「ワット・ビット連携」とは、電力インフラ(Watt)と情報通信インフラ(bit)を連携させ、社会全体をより効率的にする考え方です。
近年、生成AIなど高度なデジタルサービスの普及に伴い、データを処理する拠点であるデータセンターの電力消費が急増しています。AIを動かすには膨大な電力と計算能力が必要で、その電力をどう安定的に、そして環境負荷を抑えながら供給するかが大きな課題になっています。
その課題を解決するために、
ワット(電力側):再生可能エネルギーを有効活用し、脱炭素化を進める
ビット(情報通信側):AI用DCを適切な場所に配置し、効率的に運用する
この2つを連携させることで、AIの活用促進、電力の安定供給、地域振興を同時に実現することを目指す取り組みが、ワット・ビット連携です。
例えば、電力を安定供給できる地域に通信網を整備することで、効率的にデータセンターを設置できるようになります。
近年、AIの活用が急速に広がり、インターネットを通じてやり取りされるデータ量も急激に増えています。
その結果、データを保管・処理する拠点であるデータセンターへの需要が過去に例のないスピードで増えており、日本にとってその整備は非常に重要な政策課題となっています。
経済産業省と総務省では、こうした課題に対応するため、「デジタルインフラ(データセンター等)整備に関する有識者会合」を開催し、2024年10月の中間取りまとめ(3.0)において、デジタルインフラ整備に向けた具体的な施策を早急に検討すべきと示しました。
データセンターは膨大な電力を必要とするため、迅速に整備を進めるには電力供給を効率的に確保することが欠かせません。
2025年2月に閣議決定された「GX2040ビジョン」では、経済成長と脱炭素の同時達成を目指し、電力インフラと通信インフラを一体的に整備すること(ワット・ビット連携)の重要性が明確に示されました。
こうした背景を踏まえ、AI活用によるDXの加速や成長と脱炭素の両立に向け、2025年3月から官民関係者が参加する「ワット・ビット連携官民懇談会」が開催され、電力・通信インフラの観点からデータセンター整備について議論が進められています。
同懇談会の取りまとめ1.0では、官民が協力して実行すべき方向性として、
などが示されました。
ワット・ビット連携の取組として大きく4つのアプローチがとられています。
ソフトバンクと子会社のIDCフロンティアは、生成AIの急速な普及に伴うデータ処理量と電力需要の増加、そしてデータセンターが東京・大阪に集中しているという課題に対応するため、北海道苫小牧市に大規模AIデータセンター「北海道苫小牧AIデータセンター」(約50MW規模)を建設し、2026年度の開業を目指しています。経済産業省の補助金支援を受け、将来的には数百MW規模へ拡張し、日本最大級のAIデータセンターに成長させる構想です。電力については、北海道内の再生可能エネルギーを100%活用する“地産地消型”のセンターとして運用していく予定です。
苫小牧が選ばれた理由として、地域特性による複数のメリットがあります。年間を通じて冷涼な気候であるため、サーバー冷却に必要なエネルギーを大幅に削減することができ、空調コストを約6割削減できると見込まれています。さらに、周辺には大規模な再エネ発電設備が集積しており、再生可能エネルギーの安定利用が期待できます。また、水資源が豊富な地域であることから工業用水を安定かつ安価に確保でき、液冷など次世代冷却技術の導入においても優位性を持っています。
一方で、通信遅延による制約と電力の安定供給という面に課題も存在します。ソフトバンクの宮川社長は、「東京や大阪などデータニーズの大きい場所から離れているため、通信の遅延が発生する」という点を課題として挙げています。この課題に対しては、AI学習処理など遅延の影響を受けにくい用途を主とすることで地理的な制約を克服する方針が示されています。また、再エネ電力の出力変動に対応するため、夜間の電力供給も可能とする蓄電設備や水力等を含む電源の確保が今後の検討課題となっています。
Google は、データセンターの電力消費をできるだけクリーンな電力と同期させる仕組み「Carbon-Intelligent Computing(カーボン・インテリジェント・コンピューティング)」を導入しています。具体的には、太陽光や風力など再生可能エネルギーが豊富で、かつ電力網の炭素強度(CO₂排出量)が低い時間帯・地域にあわせて、処理のタイミングや処理場所を動的に調整するというものです。
この仕組みの適用対象は、主にバックグラウンド処理や非リアルタイム処理(動画のエンコード、写真やストレージのデータ整理、機械学習のような大きなバッチ処理など)で、リアルタイム応答を必要としない作業です。こうした「ゆとりのある処理」を、再エネが多く、電力の炭素強度が低い時間帯/地域に移すことで、環境負荷を下げつつ効率よく運用することを目指しています。
このアプローチにおける課題は、実行において多くの制約が存在することです。
まずすべての処理がワークロードシフトの対象ではなく限定的な運用となります。
リアルタイム性や低遅延を必要とする処理(動画ストリーミングのリアルタイム変換やChatGPTやGeminiなど即時応答を要するAI推論など)における時間的シフトは現実的ではありません。また、適応可能な処理を分類・ラベリングし、最適な時間・場所に再配置するためには、Google独自のアルゴリズムが利用されています。
IOWN APNによる遠隔データセンター間における処理配置最適化
IOWN構想の中核技術であるAll-Photonics Network(APN)を活用し、地理的に離れた複数のデータセンターを高速・低遅延で接続し、地域ごとの電力需給状況に応じて最適な処理配置を行う実証が進められています。
APNは、ネットワーク区間をすべて光信号で構成することにより、従来の電気信号ベースの通信よりも圧倒的に低い遅延と大容量通信を実現できる点が特長です。この技術により、従来は同一拠点内に集約することが前提であった処理を、物理的に離れたDC間で柔軟に分散させることが可能になります。
2025年6月には、福岡と大阪の約600km離れたDC間をIOWN APNで接続したフィールドにおいて、地域の電力状況を考慮した処理配置の最適化を実証しています。本実証ではAI推論処理を対象とし、アプリケーションを停止させずに配置を変更する「ライブマイグレーション」を長距離で実施する際の課題であったダウンタイムの増加を抑えることに成功しました。さらに、地理的に分散した計算環境においても、計算負荷や電力消費に応じて処理配置を動的に変更できることを共同で確認しています。
加えて、九州地域で実際に再生可能エネルギーの出力制御が発生した日のデータを使用し、再生可能エネルギーの発電量とDCの電力利用状況に応じて、処理するDCを30分周期で選択する実験を行いました。その結果、処理を均等分散する方式と比較して、最大で31%の再生可能エネルギー利用率向上が確認されており、電力状況を考慮した処理配置の有効性が示されています。さらに、外部の電力需給状況や各DC内部のリソース状況など多様な要件を扱う膨大な計算処理に対して、NTT独自のアルゴリズムを用いることで、1日分の処理配置計画を2分以内に算出することに成功しており、将来的にはより大規模な環境においても処理最適化が可能になると期待されています。
この実証は、IOWN APNによる超低遅延・高帯域ネットワークと、DC間の動的ワークロード配置制御技術を組み合わせ、再生可能エネルギーの活用最大化を実現することで、カーボンニュートラルへの寄与を目指すものです。
一方で、遠隔分散環境の実運用には、APN設備のさらなる整備、運用管理の複雑化、用途適合性の見極め、セキュリティ強化といった課題が残ります。
アマゾンサスケハナ原発に併設したデータセンター
発電所に隣接してデータセンターを配置し、発電設備から直接電力供給を受ける「コロケーション(発電所併設型データセンター)」の構想は、データセンターが必要とする膨大な電力を安定的かつ低コストで確保する手段として注目されてきたアプローチです。
AWSは2024年3月、米国ペンシルベニア州のサスケハナ原子力発電所(タレンエナジー社が運営)に隣接するデータセンターを取得し、10年間の直接電力供給(Behind-the-Meter)契約を締結しました。発電所から直接電力を受けることで、送電網を経由する際に必要となる送配電コストを大幅に削減し、安定した電力を確保する狙いがありました。
しかし、データセンターの需要増加に伴う容量拡大要請が同年11月に連邦エネルギー規制委員会(FERC)によって却下され、AWSは2025年5月に契約内容を変更し、送電網を通じて電力を調達しコストを負担する方式へ切り替える方針を発表しています。
この事例が示すように、本アプローチには発電所からの直接供給に対する規制面の課題があります。直接供給は地域電力網の安定性を損なう可能性があるとして電力事業者から反発を受けやすく、今後は原子力発電などの大規模電源から直接供給を行う方式の実現は難しくなることが予想されます。
ワークロードシフトを実現するには、①情報収集 / 予測、②WL最適化 / 配分計画、③実行制御 / 同期、④ネットワーク / データ移送という4つの技術要素が必要になります。
ワークロードシフトの計画段階では、外部および内部の情報を正確に取得・予測し、その結果をもとに最適なワークロード配分計画を立案する技術が求められ、実行段階では、分散処理を正確かつ効率的に行うための制御技術と、DC間をつなぐ高速通信技術が求められます。
本章では、各要素における技術例を一部紹介します。
WLシフトの判断材料となる、電力状況、炭素排出量、電力価格、気象、データセンターの負荷状況などの情報を集め、将来を予測する技術です。
ワークロードを動かす判断は、その時点の情報だけでなく、「今後どうなるか」を踏まえる必要があり、誤った情報や予測では、電力コストの増加や処理遅延などのリスクが高まります。
実際にGoogleでは、世界中の計算資源をシフトさせるために、特定の電力網が炭素集約型エネルギーにどの程度依存するかを前日予測が実施されています。
収集した情報をもとに、どのデータセンターでワークロードを処理することが最も合理的かを自動的に判断し、最適な配置計画を立てる技術です。
ワークロード配置を判断する際には、電力コスト、炭素排出量、処理性能、業務の優先度、SLAなど多くの条件を同時に考慮する必要があります。人手で判断することは現実的ではなく、自動で最適解を導き出す仕組みが不可欠になります。
実際に、NTTとNECによるIOWN APNの実証実験では、電力状況や負荷の変動に応じて、最適な処理配置を自動で算出するアルゴリズムが用いられています。実証では、1日分の処理計画を約2分以内に算出し、最大 31%の再生可能エネルギー利用率向上を確認しています。
最適化された計画に基づき、実際にワークロードを移動させ、分散処理が正しく同期するように制御する技術です。
ワークロードを地理的に離れた拠点へ移動させる際には、処理中断(ダウンタイム)、データ整合性、障害対応などの課題が発生するため、移行や同期を安定して行える仕組みが必須となります。
NVIDIA NeMo では、大規模なLLM学習を複数のデータセンターにまたがって実行できるよう、GPU間の同期とタスク制御を最適化する仕組みが提供されています。
NVIDIA NeMoは複数のデータセンター間で学習処理を正確に同期させるために、計算処理の割当調整、階層的な勾配集約、分散オプティマイザ、通信の分割制御などの仕組みを組み合わせ、拠点間の遅延差や負荷差を吸収しながら一貫した学習状態を維持する技術であり、複数DCをまたぐ大規模クラスタ化の技術基盤となりえます。
ワークロードシフトを複数のデータセンター間で実際に実行するためには、大量のデータを高速かつ安定してやり取りできるネットワーク技術が不可欠です。ワークロードを移動させる場合、計算処理そのものだけでなく、学習データ、モデルパラメータ、セッション情報など膨大なデータを短時間で同期する必要があり、通信が遅延したり途切れたりすると、処理全体のパフォーマンスが大きく低下してしまいます。
この課題に対し、IOWN APNは、光技術を活用することで、従来のネットワークより超低遅延・超高速・高帯域の通信を可能にする技術です。APNを利用することで、遠隔地にある複数のデータセンターをあたかも1つの巨大データセンターのように扱い、ワークロードシフトに必要な大量データの移送を支障なく実行できる環境が実現されます。
現在も複数実証実験が行われており、AI推論処理の長距離ライブマイグレーションにおける、ダウンタイムの増加を抑制することに成功するなど、地理的に離れた複数拠点に処理を分散しながらも、リアルタイムに近い形で最適なワークロード配置を行える可能性を示しています。
現在、かつてない速度で「デジタル化(DX)」と「脱炭素化(GX)」の両立を迫られています。
ワット・ビット連携 は、電力と通信という二つのインフラを有機的に結びつけることで、データセンターの健全な拡大、再生可能エネルギーの有効活用、そして地域振興という複数の目的を同時に実現しうる、有望な構想です。
この構想が着実に実装されていくことで、AI・デジタル社会を支えるインフラ基盤の再構築が進み、日本全体のサステナビリティと競争力を高めていくことが予想されます。逆に、インフラ整備や制度対応が遅れれば、電力需給の逼迫、再エネの活用機会の逸失、都市圏への負荷集中といったリスクが残ります。
したがって今後は、政府・自治体・事業者・地域社会が協調し、政策と現場の両輪でワット・ビット連携を実装することが不可欠です。
【参考】
アーツアンドクラフツConsulting & Solution事業部/Consultant