カテゴリー別アーカイブ: レポート

データセンターが直面する次世代ITインフラと来るべきエネルギー効率化の要請

2011年10月11日に都内ホテルで開催されたシュナイダーエレクトリックの「Data Center Solutions Forum 2011」では、セッションの締めくくりとして「データセンターが直面する次世代ITインフラと来るべきエネルギー効率化の要請」と題したパネルディスカッションが行われた。パネリストとして登壇したのは、エクイニクス・ジャパンの古田敬氏、さくらインターネットの田中邦裕氏、富士通の北中猛詞氏、シュナイダーエレクトリックの佐志田伸夫氏の四人である。ここでは、主にこの夏の電力使用制限に対する取り組みについての話題を紹介する。

ファシリテータ:本誌編集長 土屋信明  文 柏木恵子  写真 津島隆雄

震災対応、すぐできる取り組み

——3.11の震災と福島原発のトラブルにより、この夏は石油危機以来37年ぶりという電力使用制限の措置がとられました。幸いにしてデータセンターは規制緩和の対象となりましたが、みなさんそれぞれ影響があったのではないでしょうか。

富士通株式会社 アウトソーシング事業本部 ファシリティマネジメント 統括部 統括部長 北中猛詞氏
富士通株式会社
アウトソーシング事業本部
ファシリティマネジメント
統括部 統括部長
北中猛詞氏

北中●東京は計画停電がありませんでしたが、実は館林では5回経験しています。お客様から発電用燃料の調達状況をご心配される質問なども多々ありましたが、結果的には7〜9月の制限期間を無事に乗り越えました。

そのなかで省エネの効果が高かったのは、空調機をいかに止めるかというところです。我々の基本的な考え方として、お客様のシステムを絶対に止めない、データセンターだけでなくお客様サポートの拠点も含めて守るという前提で施策を作っています。実際のところ、データセンターで省エネというのは非常に難しいですね。一般の事務所ですと空調・照明を止める、エレベータの間引き運転をするといったことがよく実施されていますが、データセンターでは空調設備を含めた冷熱源設備をいかに電気を使わずに運転するかが、一番のポイントだと思います。

節電施策としていくつか行いました(図1)が、一番効果があったのはサーバー室用の空調機器を止める、または冷熱源設備の運用を変更するというものです。冷熱源設備というのは、当社のセンターは水冷セントラル方式で冷水を作る冷凍機を電気で運転していましたが、それを油で運転するものに切り替えました。一番大きかったのは、外調機設備の運転変更です。外調機はサーバー室に新鮮な空気を入れたり、室内の加湿に使われたりしています。この外調機を止めることによって、かなり電力を削減できました。

図1 富士通館林データセンターの節電施策(出典:富士通)

図1 富士通館林データセンターの節電施策(出典:富士通)

室外機設備の環境改善というのは、葦簀(よしず)をかけたり、打ち水をして冷やしたりといった地道な努力です。また、当社の設備は完全二重化をしていますので、お客様のシステムに影響のないものを止めました。具体的にいうと、空調機の冗長部分は止められます。また、電源設備のうち、末端のサーバールームまでいく間にいろいろトランス設備があります。トランスを入れると使わなくても負荷が乗っているので、そういったトランスの一部を停止するといったこともしました。まさに、乾いた雑巾を絞るような作業を積み重ねて、だいたい5%弱の削減ができています。当社のセンターは事務所のスペースはあまりありませんので、純粋にデータセンターのみでの節電ということです。

——館林のデータセンターはクラウドの基盤に使われていたり、可用性の高さが要求されたりと、できることには制限があると思いますが、冗長化設備の停止や空調の停止は、お客様の理解は得られましたか。

北中●基本的にはお客様のシステムは止めないという前提ですので、電源や空調については数値から判断して大丈夫だろうというところまでやりました。とはいっても、空調機を止めるのは温度上昇というリスクが伴います。そこで役立ったのは、これまでやってきた見える化と省エネの運転システムです。館林では、1ラック単位で温度を監視できるようになっています。温度が高くなるところは事前に風がよく通るようにするといった施策を打ち、ピンポイントで温度の上がっているところはどこか確認しながら、空調の停止や設定温度を上げるということもやります。床下温度も18℃から23℃まで段階的に上げて、これは今も継続して23℃で運転しています。

——外調機を止めると外気が入らなくなるので、二酸化炭素の濃度が問題になりますね。

北中●CO2濃度の基準は1000ppmなので、それを超えないように昼間止めて夜間動かすといったことをします。温度が高い昼間の時間帯に外調機を止めて、極力電力量を下げました。

——最も削減効果が高いのは空調機器、冷熱源設備あたりということですね。佐志田さん、一般的にみてこれはどうですか。

シュナイダーエレクトリック株式会社 取締役 佐志田伸夫氏
シュナイダーエレクトリック
株式会社
取締役
佐志田伸夫氏

佐志田●外から空気を取り入れると、熱い空気を取り入れてそれを冷やすことになりますので、その動きを止めるのは二重のメリットがあります。外調機のファンを回すエネルギーと入ってくる熱い空気を冷やすエネルギーがいらなくなります。一般的に、データセンターとして作られた新しいビルはそのように考えられています。オフィスビルでも、省エネのために外気温を見て外調機の取り入れ量を制御するということは一部でやられています。

しかし、古い建物や、当初はデータセンター内で人がいろいろな業務をすると想定して設計されている場合は、CO2濃度が上がらないようになっています。その場合、ほとんど人がいないデータセンターなら、コンピュータは呼吸をしませんから、CO2濃度に神経質になる必要はありません。富士通さんのように見直すのは適切な方法でしょう。

——これまであまり紹介していませんが、外調機は試してみる価値がありそうですね。都内のデータセンターの省エネ対策として、さくらインターネットの対策事例をお聞きしたいのですが。

さくらインターネット 代表取締役社長 田中邦裕氏
さくらインターネット
代表取締役社長
田中邦裕氏

田中●今回の震災に対応するための省エネといいますと、すぐにできることということになりますね。ひとつは、そもそもサーバーを止めるということです。サーバーはなかなか止められないということですが、たとえば検証中や実験中のサーバー、冗長化している自社のメールサーバーを止めてしまうとか、お客様に影響のない範囲でサーバーを止めるということをまずやりました。

もう一点は、東京以外にサーバーを持っていく、もしくはサーバー仮想化で集約する。お客様が使っている古いサーバーを、大阪に移設する代わりに最新のものに無償で載せ替えますとか、仮想化集約していいですかとか、それに同意いただいたサーバーとして600台くらいが東京から減りました。

ただ、データセンターというのはそもそも消費電力が多い場所なので、以前から節電の取り組みはしていました(図2)。まず一般的な方法として、アイルキャッピングです。ここで重要なのが、サーバーは冷やさなければならないのではなく、放熱をしなければいけないということです。どうしてもサーバーを冷却するという意識になるのですが、26℃くらいまでは正常に動くといわれています。外気温が26℃だったとしても、熱をきちんと放出すればいいのです。逆に、冷房を19℃で入れても、排熱が回ってきてサーバーの吸気ファンのところでは19℃の冷気と30℃の排熱が混ざっていてはだめなのです。冷気と暖気を完全に分離することで、冷気側の設定温度を上げることができます。当社でも、空調の吹出し口は20℃くらいに設定してあった温度を、最高では26℃まで引き上げました。

図2 既存データセンターにおける省エネ対策(出典:さくらインターネット)

図2 既存データセンターにおける省エネ対策(出典:さくらインターネット)

ただ、ここで注意していただきたいのですが、30℃くらいにしてもサーバーは動くという話があります。それは正解ではありますが、30℃くらいになるとサーバーのファンがびゅんびゅん回り始める。そうなると、空調費が下がってもサーバーの消費電力が上がってしまいます。そこはバランスですね。

二番目は、先ほど富士通の北中さんもおっしゃっていましたが、室外機に水をかけることです。ただ、場当たり的にホースで水をかけるのではなくて、実はデータセンター向けのソリューションが出ています。というのも水道の水はカルキが入っていますので、機器が腐食しないように少し調整してやる必要があります。システム化されたソリューションがありますので、当社ではそれを導入しています。

あとは、風向版、ルーバーの採用ということで、熱溜まりができないようにします。最後に、省エネインバータの導入です。実は、データセンターで使われているモーターの数は非常に多いので、それらをインバータに交換するだけでも空調費が10%から15%下がります。

設定温度を上げると電力消費は下がる?

——温度の話が出ましたが、ASHRAEのガイドラインも2004年と2008年を比べると稼働に妥当だとされる温度範囲は広がっていますね(図3)。空調の設定温度を上げたという話はよく聞きますが、実際どれくらい効果があるのでしょうか。エクイニクスでもサーバールームの温度は変更されましたか。

図3 2008 ASHRAE Environmental Guidelines for Datacom Equipment

図3 2008 ASHRAE Environmental Guidelines for Datacom Equipment

古田●空調の設定温度を3℃上げると電気を10%セーブできるというのが都市伝説のように言われていますが、実はまだ誰も証明したことがありません。我々も今回の震災でご多分に漏れずさまざまな対策をとり、世界中のお客様に「ことによったらサーバールームの温度を上げるかもしれません」というお願いをしました。文句が出るかと思いましたがまったくなくて、とりあえず温度を上げてもよいというお墨付きは手にしたわけです。といっても、結局上げる必要はありませんでした。実際には、サーバールームの温度を上げたらどの程度の電力削減効果があるかという統計情報は取れていません。

ただ、一応グローバルでいろいろなところで試してはいます。その結果、もちろん条件が違えば結果は違うので一概にはいえませんが、3℃で10%という結果は出ていません。消費電力削減に一番効果があるのは、やはり空調機を間引いて運転するということです。

——館林でも温度を上げたそうですが、効果の実感はありますか。

北中●吹き出し温度を上げたことだけですごく省エネになったということはないですね。当社の場合は水冷式で、水を冷やす冷凍機の運転時間や水量が減る分、若干下がったということはあります。ただ、10%というレベルには全然至っていません。ちょっと安心感があるだけのような気もします。

——この辺り、専門家の佐志田さんの見解をお伺いできますか。

佐志田●2つのお話が出ました。ひとつは、設定温度を上げると省エネになるという都市伝説は本当か、それから省エネをするにはどこを減らすのがよいか。

まず都市伝説の件ですが、空調は何をやっているかというと、暖まった熱を外へ出しています。冷却に必要なエネルギーは移動させる熱量がどれくらいかで決まります。ご家庭の空調では、外の温度が35℃で室内を25℃に冷やす場合、エアコンは10℃分の熱を外に出すという仕事をします。10℃分のエネルギーが必要ということです。これを、3℃上げて28℃にするなら、温度差は7℃になりますから、必要なエネルギーは7℃移動させる分になります。仕事の量が10分の7になるのだから、必要なエネルギーは30%少なくて済む。これは、真実です。

ところが、データセンターでは、サーバーが常に熱を出しています。空調は室内にある熱を処理してお終いというわけではなく、サーバーが出している熱を処理し続けるので、設定温度を変えても必要なエネルギーは大して違わないのです。というわけで、この都市伝説はデータセンターでは成り立ちません。

それではどのように省エネをしていくかということですが、特効薬があるわけではありません。ここまで聞いていただいたように、小さな積み重ねが必要ということになります。電気を使っているのは空調機・冷凍機といったところですから、冗長性を持っている部分を減らす。また、インバータの話が出ましたが、ファンのモーターは回転数の3乗に比例して電力を使います。たとえば回転数を80%に落とすと、0.8×0.8×0.8で、約50%省エネできることになります。

郊外型なら上下の暖気分離が可能

——海外のデータセンターでは、日本にないようなユニークな取り組みで省エネしているところがありますね。

古田●データセンターにはいろいろな分類がありますが、ユーザーに近いところ、巨大なサーバーファーム、その間をつなぐものという3階層に分類することができると思います。サーバーファームはよく山奥などに規模の経済で巨大なものを作りますが、ユーザーに近いところではネットワークのレイテンシなどが問題になるので都市型になる。山奥のサーバーファームなどでは、外気冷却一辺倒のようなこともできます。その他に、地熱や地下水を利用しているケースがあります(図4)。これはオランダの郊外型の例ですが、地下にある冷水やお湯を季節に応じて組み上げて熱交換し、空調費を抑えて、PUEは1.1を実現しています。

図4 Aquifer Thermal Energy Storage System(出典:エクイニクス・ジャパン)

図4 Aquifer Thermal Energy Storage System(出典:エクイニクス・ジャパン)

昨今、コンテナ型データセンターが話題になっていますが、我々は主に雑居ビル型のデータセンターなので使っていません。むしろ大空間で、米国の例では天井高が15mとか20mというところもあります。天井を高くすることで、上から冷たい空気を落とすと、それと入れ替わりに暖かい空気が上の方へ上がっていく。上下での暖気・冷気分離ですね。上の熱溜まりを外に廃棄するには、さほどエネルギーは必要ありません。空調ユニットから冷たい空気を送り込む部分は、ファンを分散させずに集中する(図5)。これもPUE値はよくなります。

図5 天井の高さを利用したHot/Cold方式(出典:エクイニクス・ジャパン)

図5 天井の高さを利用したHot/Cold方式(出典:エクイニクス・ジャパン)

——海外は郊外型が多いので天井の高いものが作れますが、日本は都市型が多いですからなかなかそうはいきません。さくらインターネットは石狩に郊外型データセンターを作りましたね。

田中●都市型データセンターはインターネット回線を調達しやすいとかエンジニアが駆け付けやすいというメリットがあるのですが、3.11の影響もあり東京以外のデータセンターを利用したいという要望も増えてきました。2011年秋に石狩市にデータセンターが完成する予定ですが、実は着工は2011年3月10日でした。資材調達を心配しましたが、すでに調達済みだったこともあり、予定通りの稼働を予定しています。

石狩というロケーションですぐ思い付くメリットは、外気が冷えていることです。普通に空調機を動かしても、熱交換にかかるコストは低い。ただそれだけでなく、それならば外気をそのまま使おうというのがひとつのコンセプトになっています。

郊外に作ると、寒冷地であるとか土地が安いということだけでなく、自由度が高いというメリットがあります。都市型データセンターは階層構造になっていることが多く、たとえば、14階建てのビルに1階2階が電気室で、その上がサーバールームで、屋上に室外機を置くというようになっています。しかし、エクイニクスの古田さんの話にあったように、天井を高くすることで自然の空気の流れを利用できます。たとえば石狩では図6のようにしています。

これは左右で別の仕組みになっていますが、左側は取り入れた外気を上からサーバーに当てています。このデータセンターは床からの冷房はまったく行っていません。ラックはスラブに直置きになっています。したがって床下に冷気を送ることができないのですが、もともと冷気は下に行くものです。ですから、冷気を緩やかに流すと、そのままラックの下の方に下がっていき、それをサーバーが吸って、暖かくなった空気は上にどんどん溜まっていく。天井裏は5mくらいあり、そこに溜まった暖気を外に出してやる。こういう仕組みにすると、ファンの容量は非常に少なくてすみます。そもそも冷却する必要がありません。ということで、非常に安価に運用できます。

右側は、冷気をわざわざ天井裏に流すのももったいないということで、横から大きなファンで流し込むようになっています。フィルタを通した外気をデータセンター内にそのまま落とし、サーバーを通って天井裏に行き、それが排気されるという構造になっています。冷気側にファンがありますが、個人的にはそれもいらないのではないかと思っているくらいです。というのも、天井裏に暖気を吸い上げる排気用のファンが付いていますし、ラックの中のサーバー自体にもファンが付いています。サーバーが吸い込むということは冷気際の気圧が下がりますから、外気はそのまま入ってきます。そうなれば、ファンの消費電力も非常に下がります。郊外で行うことによる、建物構造にまでこだわった形の省エネということです。

——右と左で冷却の方式が違いますが、両方試しているのですか。

田中●そうです。実はこのデータセンターは、冷凍機も備えています。外気が使えない場合は、従来型のエアフローを使う。順番に言いますと、冷凍機を使うのが一番オーソドックスで、安全。その次に左側の上から冷気が下がる方式。これについても米国ではかなり実績があります。右側のものが、外気をそのままということでリスクもあるが一番アグレッシブです。ということで、最初のプロトタイプとして折衷型になっています。

——右側の方式だと、サーバーへの冷気の当たり方に違い出るような気がしますが。

田中●実はそれが課題です。今、奥の方に風が来て、手前が来ないのではという話になっています。というのも、風はまっすぐ流れますので、ファンを強くし過ぎると手前の方が吸わない。真ん中は両側から冷気がやってきますので、ちょうどぶつかって冷気溜まりになる。まあ、やってみないと分からないということで。

——チャレンジャーですね(笑)。

図6 石狩データセンターの外気空調システム(出典:さくらインターネット)

図6 石狩データセンターの外気空調システム(出典:さくらインターネット)

モジュール型データセンターの利用

——もうひとつ、今後のデータセンターのあり方で注目したかったのは、分棟式ということです(図7)。こういったモジュール化を推進していることのメリットはどのようなことですか。

図7 分棟式によるデータセンター施工の分散化(出典:さくらインターネット)

図7 分棟式によるデータセンター施工の分散化(出典:さくらインターネット)

田中●通常、データセンターは部屋単位やフロア単位で、最初に5年後、10年後のサイズを考えて作ります。そのため、開業当初は稼働率が低くなり、それがデータセンター事業者の悩みの種です。当社も、ある程度大きく作らないとコストが合わないが、大きく作ると無駄が出るというジレンマを抱えていました。コストと稼働率を両立させるために、最近コンテナ型やモジュール型のデータセンターが流行っているのだと思います。

石狩は、一期工事で第一棟目と第二棟目のつながった部分を作ったのですが、トータルでは8棟建つ予定になっています。しかしながら8棟全部建てるというのは非常に大きな投資が必要なので、今回は一部のみを建てたわけです。ただ、電源設備は建物以上に費用がかかります。メンテナンス、部品交換、維持費も必要です。そこで今回は、100ラック単位でDとEの2ゾーン、200ラックのみを作っています。これによって、かなり投資が抑えられます。

たとえば、従来型モデルと石狩モデルを見ると(図8)、石狩ですから当然土地代が安い。そのうえ、設備費が安くなっているのは、PUEがよくなっているのでトータルの電気設備が減らせるということです。ただ今回注目していただきたいのは、投資階段の段の高さと階段のくるタイミングです。たとえば従来モデルでは、200ラックごとに大きな階段のタイミングがやってきます。設備を大きく増強する何十億という投資が必要です。しかし、100ラック単位、実は25ラック単位で増強できるのですが、そういう小さい単位で増設することで、階段の回数を増やしながら一段の高さを減らすことができます。

図8 従来モデルと石狩モデルの投資モデルの比較(出典:さくらインターネット)

図8 従来モデルと石狩モデルの投資モデルの比較(出典:さくらインターネット)

もう1つのメリットとしては、最新テクノロジーへの対応です。5年前、10年前を思い出してほしいのですが、今とはまったく状況が違いました。データセンターもこれほど発展はしていませんでした。ですから、5年後、10年後はまた新しいテクノロジーが広がっているだろうと予想できます。そう考えると、建設当初にすべて作ってしまわずに。5年後にはそのときの最新のテクノロジーを使った方がいいということがあります。また、データセンターでリノベーションするときも、それこそ1000ラックのリノベーションは非常に大変ですが、100ラックずつ10年後、20年後にリノベーションできる。ということで、投資単位を小さくして、テクノロジーの世代差も小さくしていくというのが今回のモデルです。

——すでにいくつかのベンダーからモジュール型データセンターが登場しています。規格化されてモジュール化されていると投資を小さくして段階的に増やせるのがメリットですが、富士通館林でモジュール型を取り入れる可能性はありますか。

北中●データセンター事業者の立場ではまさに喫緊の課題です。お客様を受け入れるスペースをある程度キープしておかなければいけないので、そこは先行投資という形になる。それを少しでも抑えたい、タイムリーに追加したいというと、これからモジュール型という考え方は出て来ると思います。

ただ、すべてがコンテナに入るということではないでしょう。一般のサーバー機器をコンテナ型データセンターで運用するのは難しいと思います。もっと温度が高い環境で動く条件になってくれば、飛躍的に増えるのではないかと思います。

——エクイニクスではいかがですか。

古田●データセンターが何のためにあるのかという話になると思うのです。モジュラタイプというのは、設備投資をゆるやかにするためのひとつの方法ですよね。建築でもメタボリズムといって、だんだん増やしていく手法があります。しかし、いわゆるコンテナタイプということになると、これは1つの巨大なサーバーみたいなもので、規格化された同じ1つのサーバーを使える会社がどれぐらいあるかという議論だと思います。

我々はグローバルで年間500〜600億のデータセンターの設備投資をやっていますが、これ以上使っている会社は世界中に2社しかありません。その2社とは、マイクロソフトとグーグルです。彼らの規模になれば、いわゆるサーバーファームをコンテナ化するメリットが非常に大きい。つまり、彼らは自分たちが運用する範囲でコンテナ化する意義があるということです。一方、我々のような雑居ビル型、格好良く言うとマルチテナント型で展開するには汎用性が必要です。コンテナの中はお客さんの要望通りにする必要があり、極めてフレキシビリティが要求されるITリソースに対応するのは厳しい。

とはいいながらも、「クラウドのアーキテクチャに向かうことは間違いないと」ということはよく言われます。クラウドに行くということは、クラウド側にあるリソースを利用するアウトソーシングを意味するので、そのときにモジュラ化したコンテナタイプのアーキテクチャは入ってくるだろうと思います。

——皆様、本日はどうもありがとうございました。