報道資料
ここに掲載されている情報は、発表日現在の情報です。
検索日と情報が異なる可能性がございますので、 あらかじめご了承ください。

2018年11月13日

ディープラーニングの分散学習で世界最高速を達成※1

人工知能(AI)開発の大幅な効率化を実現

ソニーは、ディープラーニング(深層学習)の開発用フレームワークである「コアライブラリ:Neural Network Libraries」と国立研究開発法人 産業技術総合研究所(産総研)が構築・運用する世界最大規模のAI処理向け計算インフラストラクチャである「AI橋渡しクラウド(ABCI)」を活用して、ディープラーニングの学習速度において世界最高速※1を達成しました。

ディープラーニングとは、人間の脳を模倣したニューラルネットワークを用いた機械学習の一手法です。このディープラーニングを使用することで、画像認識や音声認識の性能が近年飛躍的に向上し、一部の領域では人間を超える性能を達成しました。
一方で、認識精度を向上させるために学習データのサイズやモデルのパラメータ数が増加しており、これに伴い計算時間が飛躍的に増加し、一度の学習に数週間から数カ月かかるケースもでてきました。
AI開発においては様々な試行錯誤を繰り返す必要があるため、この学習時間を短縮させることは非常に重要となります。そのため、複数のGPUを活用した分散学習による学習時間の短縮が脚光を浴び始めています。

分散学習はGPU数が増加すると、一度のデータ処理個数であるバッチサイズの増加に伴い学習が進まないケースや、GPU間のデータ送受信の処理遅延により学習速度が低下するケースがあります。ソニーでは、学習の進行状況に応じて最適なバッチサイズや利用GPU数を調整する技術を用いることでABCIのような大規模なGPU環境でも学習を可能にし、またABCIのシステム構成に適したデータ同期技術によりGPU間の通信を高速化しました。これらの技術を「Neural Network Libraries」に実装し、産総研「ABCIグランドチャレンジ」プログラムより提供を受けたABCIの計算リソースを用いて学習を行いました。
その結果、ディープラーニングの分散学習速度を計る際に業界で一般的にベンチマークとして活用されているImageNet/ ResNet-50※2の学習を約3.7分(最大2176基のGPU利用時)で完了させ、現状の世界最高速を達成しました。なお、今回の研究成果は「ImageNet/ResNet-50 Training in 224 Seconds(PDF)」で公開しました。

今回の研究成果は、Neural Network Librariesによる学習・実行が世界最速クラスのスピードで実行できることを実証しており、同フレームワークを用いることで、より短い試行錯誤時間でディープラーニングを用いた技術開発ができるようになることを示しました。ソニーは今後も関連する技術開発を継続し、AI技術を利用した社会の発展へ貢献していくことを目指します。

  • ※12018年11月13日時点(ソニー調べ)
  • ※2ImageNet/ ResNet-50とは、それぞれ一般的に利用されている画像認識用データセットおよび画像認識用モデルとなります。ImageNetデータセットを利用してResNet-50モデルの学習を実施しました。
このページの先頭へ