
Amazon Web Servicesは、NVIDIAのGPUを活用したAI研究向けの強力な新しいクラウドインスタンスをリリースしました。
トム・クレイジット著
すべての大手クラウドベンダーは、今後数年間で人工知能サービスがクラウドコンピューティングの重要な部分になると確信しており、Amazon Web Services は、Nvidia の最新 AI チップをベースにしたサービスを開始した最初のクラウドベンダーになりました。
水曜日の夜に発表された新しいEC2インスタンスは、主力コンピューティングサービスにNVIDIAのTesla V100グラフィックプロセッサユニットを追加します。これらのインスタンスは4つのリージョンで利用可能で、ユーザーはニーズと希望する価格に応じて、1個、4個、または8個のTesla V100チップでワークロードを実行できます。
人工知能研究の最前線で複雑な数学に取り組んでいる研究者たちは、クラウドを支える通常のプロセッサとは異なる特殊なアーキテクチャを持つGPUを大量に利用しています。GPUは必ずしもあらゆるワークロードに対応できるわけではありませんが、AI研究のような特殊なタスクには優れています。
Nvidiaはこの変化の恩恵を享受し、AI研究者にとって頼りになるリソースとなり、あらゆるクラウドサービスプロバイダーにとってなくてはならない存在へと急速に成長しています。MicrosoftとGoogleも追随し、いずれNvidiaのv100チップを提供すると予想されます。Googleもまた、Cloud TPUと呼ばれる独自のAI対応チップ設計に取り組んでいます。
AWSによると、新しいP3インスタンスは、現在のP2インスタンスがAI顧客に提供できる処理能力の14倍を提供するとのことです。これにより、処理に数日かかることもある膨大なデータセットでAIモデルをトレーニングする研究者の時間を大幅に節約できます。