
Amazon Web Servicesの新しい機械学習技術には、GPUアクセラレーションと新しいカスタムチップが含まれています。
トム・クレイジット著

ラスベガス — 機械学習は現在最も急速に成長しているクラウドサービスの一つであり、アマゾン ウェブ サービスは水曜日、競争に遅れを取らないよういくつかの措置を講じた。
クラウド市場のリーダーである同社は、推論タスク向けに特別に設計された新しいカスタム機械学習チップ「AWS Inferentia」を発表しました。推論タスクでは、機械学習システムがデータセットでトレーニングした後、実際にパターンを組み立て始めます。また、クラウドコンピューティングサービスの最も基本的なユニットであるEC2コンピューティングインスタンスにGPUアクセラレーションを追加する予定です。
さらにジャシー氏は、AWSが人気の機械学習フレームワークTensorflow向けの新たな最適化技術を開発し、「マウンテンビュー」(Googleを暗に示唆する表現)の企業が開発したTensorflowシステムと比較して、トレーニング時間を半分に短縮したと述べた。GoogleはTensorflowを開発し、後にオープンソースプロジェクトとして公開しており、その機械学習技術の優秀さを自社のクラウドサービスの重要なセールスポイントとしている。
AWS Inferentiaチップに関する具体的な詳細は現時点では明らかにされていない。AWSはブログ投稿で、このGPUアクセラレーション機能は「Amazon Elastic Inference」と名付けられ、顧客はアプリケーションに最適なアクセラレーションレベルを選択し、必要なパフォーマンス分のみを支払うことができると述べた。
ジャシー氏はまた、AWSが機械学習アルゴリズムのマーケットプレイスを立ち上げると発表した。これはGoogleも今年初めに開始しており、シアトルのスタートアップ企業Algorithmiaも数年前から取り組んでいる取り組みだ。ジャシー氏によると、AWS版は150種類のアルゴリズムを搭載してローンチされる予定だ。