三菱電機株式会社は、車載機器や産業用ロボットなどの組み込み機器上で実現する推論処理※1に必要な事前学習時間とメモリー量を大幅に短縮・削減した「ディープラーニングの高速学習アルゴリズム」を開発しました。「コンパクトな人工知能」(2016年2月17日当社発表)にこのアルゴリズムを導入することで、組み込み機器上で学習が可能となり、使用環境に適応した、より高精度な推論を実現します。
本開発内容は、国際会議ICONIP※2 2016(10月16日〜21日、於:京都大学)にて発表し、Lecture Notes in Computer Science(出版:Springer社)に掲載予定です。
- ※1既知の事柄を元にして未知の事柄について予想する識別、認識、予測などの処理
- ※2International Conference on Neural Information Processing
開発の特長
- 事前の学習時間とメモリー量を削減し、組み込み機器上での学習を実現
- ・新開発のアルゴリズムで、推論処理に必要な事前の学習時間とメモリー量を大幅に短縮・削減
- ・事前の学習時間とメモリー量がそれぞれ約30分の1※3 となり、組み込み機器に搭載可能
- ・組み込み機器上で学習することで機器の使用環境に適応した、より高精度な推論処理を実現
- ※3「コンパクトな人工知能」と本アルゴリズムを合わせての当社従来比
- 人工知能の導入コスト抑制に貢献
- ・サーバーやネットワーク設備が不要となることで、人工知能の導入コストを抑制
- ・コストを抑制することでさまざまな分野へ適用でき、人工知能の活用範囲の拡大に貢献
開発の概要
ディープラーニングの搭載場所 | 学習速度 | 設備価格 | |
今回 | 組み込み機器、汎用コントローラー | 数十秒〜数分(CPUボード上) ※上図の事例の場合 |
低い |
従来 | サーバー、GPU搭載CPUボード | 数時間程度(CPUボード上) ※上図の事例の場合 |
高い |