
FacebookのAIトレーニングモデルは1秒あたり4万枚の画像を処理できるようになった
トム・クレイジット著
Facebook の人工知能研究者は、画像認識用の AI モデルを驚くべき速度でトレーニングする方法を解明しました。

同社は今朝シアトルで開催されたData@Scaleイベントで、トレーニング時間を高速化する取り組みの成果を発表しました。Facebookのソフトウェアエンジニア、ピーター・ノールドフイス氏によると、研究者たちはFacebookのカスタムGPU(グラフィックス・プロセッシング・ユニット)ハードウェアといくつかの新しいアルゴリズムを使用することで、毎秒4万枚の画像でモデルをトレーニングし、ImageNetデータセットを精度を損なうことなく1時間以内に処理することが可能になったとのことです。
「これらの結果を再現するのに、適切なスーパーコンピュータは必要ありません」とノールドハウス氏は語った。
このシステムは画像と単語を関連付ける仕組みで、これは「教師あり学習」と呼ばれていると彼は述べた。訓練セットに含まれる数千枚の画像に説明(例えば猫)が割り当てられ、システムはそれらすべての画像を関連する分類とともに提示される。次に、研究者は同じ物体(例えば猫)の画像を、説明なしでシステムに提示する。システムが猫を見ていることを認識すると、画像と説明的な単語を関連付ける方法を学習する。
この画期的な進歩により、FacebookのAI研究者は、例えばウェブサイトに毎日投稿される数十億ものデータといった、より大規模なデータセットへの取り組みを開始できるようになります。これはまた、Facebookのハードウェアに関する専門知識を示すものでもあり、同社は自社のハードウェアがオープンソースであることを強調し、「つまり、他社がこれらのメリットを享受するために、非常に高度なTPUは必要ない」と声明で述べています。これは、Google I/OにおけるGoogleのTPUに関する発表を批判するものです。
Facebookは、Facebook Researchページに公開された研究論文で、AIトレーニングの取り組みに関するより詳しい情報を発表する予定だ。