- 週間ランキング
TOKYO, Aug 9, 2016 - (JCN Newswire) - 株式会社富士通研究所(注1)(以下、富士通研究所)は、スーパーコンピュータのソフトウェア並列化技術を応用し、複数のGPUを使ってDeep Learningの学習速度を高速化するソフトウェア技術を開発しました。
従来、Deep Learningの高速化手法において、GPUを搭載した複数のコンピュータをネットワークで結合した並列化では、10数台を超えるとコンピュータ間のデータ共有時間が増加するため、次第に並列化の効果が得られにくくなることが課題でした。今回、このデータ共有を効率よく行う並列化技術を新規に開発し、世界で広く利用されているオープンソースソフトウェアのDeep Learningフレームワーク「Caffe」に適用しました。幅広いDeep Learningで有効であることを確認するため、「AlexNet(注2)」を用いて評価したところ、GPU1台の学習速度に対して16台で14.7倍、64台では27倍の世界最高速度(注3)を達成し、本技術適用前と比べてGPU16台で46%、64台で71%の学習速度の向上を実現しました。これにより、コンピュータ1台では約1か月かかる学習処理をGPUを64台並列動作させることで、1日程度で処理することが可能となりました。
本技術によって、Deep Learningによる研究開発期間が短縮され、より高品質な学習モデルの開発が可能となります。富士通研究所では、本技術を、富士通株式会社のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして実用化を目指し、お客様とともにAIの活用に取り組んでいく予定です。
本技術の詳細は、8月8日(月曜日)から8月10日(水曜日)まで長野県松本市で開催中のワークショップ「SWoPP 2016(Summer United Workshops on Parallel, Distributed and Cooperative Processing)」にて発表しました。
本リリースの詳細は下記URLをご参照ください。
http://pr.fujitsu.com/jp/news/2016/08/9.html
注釈
注1 株式会社富士通研究所: 本社 神奈川県川崎市、代表取締役社長 佐々木繁。
注2 AlexNet: 画像認識用多層ニューラルネットの一つ。いろいろなニューラルネットを含むため、今回一般的なニューラルネットのサンプルとして使用。2012年の画像認識プログラムコンテストで優勝し、現在の画像認識ニューラルネットのベースとなっている。
注3 世界最高速度: 2016年8月5日現在、当社調べ。
概要:富士通株式会社
詳細は http://jp.fujitsu.com/ をご覧ください。