Vision

Azure CTOのマーク・ルッシノビッチ氏が、マイクロソフトのクラウドを支える技術を深く掘り下げながら、セキュリティの重要性を強調した。

Azure CTOのマーク・ルッシノビッチ氏が、マイクロソフトのクラウドを支える技術を深く掘り下げながら、セキュリティの重要性を強調した。

トム・クレイジット

アムステルダムにあるマイクロソフトのデータセンター。施設増設のため土地の整地が進められている。(マイクロソフトの写真)

Build 2018 の参加者は、水曜日に Azure の最高技術責任者である Mark Russinovich 氏から Azure の舞台裏を垣間見る機会を得ました。また、Russinovich 氏は、Azure Confidential Computing プログラムの一環として、Intel の新しいセキュリティ テクノロジが顧客に提供されるようになったことも発表しました。

マイクロソフトは昨年、Azure Confidential Computingを導入しました。これは、マイクロソフトのサーバーがアクセスできないハードウェアレベルのテクノロジーによって、重要なクラウドデータが常に保護されることを顧客に保証する手段です。ルシノビッチ氏は水曜日、IntelのSGXテクノロジーを搭載したプロセッサが米国東部リージョンで利用可能になったこと、そしてこれらのプロセッサ上で動作する新しい仮想マシン群も利用可能になったことを発表しました。

Intelプロセッサは、「Trusted Execution Environment(信頼された実行環境)」と呼ばれるものをチップ上に構築します。これは、ネットワークに公開されることなくデータを処理できる場所です。これは非常に優れたコンセプトであり、Intelチップのサイドチャネル脆弱性「Meltdown」と「Spectre」の発見に多くのコンピューティング専門家が動揺した理由の一つでもあります。これらの攻撃は、Trusted Execution Environmentの内部を覗き見るために利用される可能性があるからです。

Intelとクラウドベンダーが導入した緩和策のおかげで、ほとんどのクラウドユーザーは問題なく、データは信頼できる実行環境内であれば外部よりも確実に安全です。Russinovich氏は、この技術の潜在的なユースケースの例を挙げました。医療提供者は、機械学習アルゴリズムで新しい治療法の開発や特定の疾患の原因解明に活用できる大量の患者データを保有していますが、法律または社内ポリシーにより、組織外へのデータ共有が禁止されています。Azure Confidential Computingを介してデータを共有することで、他の組織が特定のグループのデータを閲覧できないようにし、これらのポリシーを満たすことができます。

6月27日にベルビューで開催されるGeekWire Cloud Tech Summitにご登壇いただくRussinovich氏は、Buildで開発者向けに75分間のプレゼンテーションを行い、その他多くのトピックについて説明しました。Russinovich氏は、現在世界50地域に展開されているMicrosoftのデータセンターの基本的な特徴について説明しました。

ワイオミング州シャイアンにあるマイクロソフト データ センターの内部。(Microsoft Photo)

マイクロソフトは、これらのデータセンターの電力供給に使用するエネルギーの50%を風力や太陽光などの自然エネルギーから賄うまでに至ったと、同氏は述べた。同社はこの割合を2020年代末までに60%に引き上げたいと考えている。そしてもちろん、最終的には再生可能エネルギー源から100%のエネルギーを調達することを目指している。アマゾン・ウェブ・サービスは昨年、2017年末までに50%の目標達成を目指すと発表していたが、それ以降ウェブサイトを更新していないようだ。一方、グーグルはクリーン電力の購入によりエネルギー使用量を100%相殺したと述べているが、これは別の指標だ。

同社はまた、エネルギー需要側におけるデータセンターの効率向上にも取り組んでおり、電力消費量と全体的な信頼性の向上に役立つ新型燃料電池の研究を進めている。「(データセンターの設計を)検討する中で気づいたことの一つは、公益事業からの電力はそれほど信頼できないということです」と彼は述べた。

ほぼすべてのクラウドベンダーと同様に、Microsoft はこれらのデータセンターを運営するために独自のサーバーを構築しており、Russinovich 氏はサーバー設計の進捗状況についてもう少し詳しく説明しました。

同社は最近、社内で「Beast」と呼ばれる比較的新しいサーバーアーキテクチャを設計しました。これは、SAPのHanaデータベースのようなメモリを大量に消費するワークロードに対応できるよう設計されており、4テラバイトものメモリを利用可能となっています。Azureユーザーの大半はこれほどのパフォーマンスを必要としませんが、ルシノビッチ氏は現代のデータセンター設計について興味深い点に気づきました。長年にわたる「スケールアウト」、つまり比較的安価なサーバーを大量にネットワークに追加してパフォーマンスを向上させる手法の後、Microsoftはより伝統的な「スケールアップ」システムの活用が増えていることに気づき始めています。スケールアップでは、サーバーに強力なコンポーネントを追加することでパフォーマンスを向上させる方が理にかなっているのです。

ルシノビッチ氏は講演の最後に、マイクロソフトの量子コンピューティング戦略を概説した。この分野を研究している他の多くの企業と同様に、この戦略もかなり先の未来の話だ。しかし、同社は「この分野に巨額の資金を投資しており、私たちにとっては一種のムーンショットプロジェクトです」とルシノビッチ氏は述べた。「まさに現実味を帯び、実用化の瀬戸際です」