1. トップ
  2. 企業・教材・サービス
  3. 富士通研究所がDeep Learningの学習速度高速化技術を開発

2016年8月10日

富士通研究所がDeep Learningの学習速度高速化技術を開発

富士通研究所は9日、スーパーコンピュータのソフトウェア並列化技術を応用し、複数のGPUを使ってDeep Learningの学習速度を高速化するソフトウェア技術を開発したと発表した。

従来、Deep Learningの高速化手法において、GPUを搭載した複数のコンピュータをネットワークで結合した並列化では、10数台を超えるとコンピュータ間のデータ共有時間が増加するため、次第に並列化の効果が得られにくくなることが課題だった。

今回、このデータ共有を効率よく行う並列化技術を新規に開発し、世界で広く利用されているオープンソースソフトウェアのDeep Learningフレームワーク「Caffe」に適用した。

幅広いDeep Learningで有効であることを確認するため、「AlexNet(*1)」を使って評価したところ、GPU1台の学習速度に対して16台で14.7倍、64台では27倍の世界最高速度(*2)を達成し、本技術適用前と比べてGPU16台で46%、64台で71%の学習速度の向上を実現した。これにより、コンピュータ1台では約1か月かかる学習処理を、GPUを64台並列動作させることで、1日程度で処理することが可能となった。

本技術によって、Deep Learningによる研究開発期間が短縮され、より高品質な学習モデルの開発が可能となるという。富士通研究所では、本技術を、富士通のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして実用化を目指し、ユーザーとともにAIの活用に取り組んでいく予定。

*1: AlexNet=画像認識用多層ニューラルネットの一つ。いろいろなニューラルネットを含むため、今回一般的なニューラルネットのサンプルとして使用。2012年の画像認識プログラムコンテストで優勝し、現在の画像認識ニューラルネットのベースとなっている。
*2:世界最高速度=2016年8月5日現在、同社調べ。

自律的な学習者への第一歩に 自己効力感の向上 活用事例多数紹介 すらら 活用事例のご紹介
株式会社TENTO

アーカイブ

  • ICT要員派遣はおまかせ! ICTまるごとサポート 詳細はこちら
  • 事例紹介作って掲載します。 ICT教育ニュースの楽々 事例作成サービス