抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ディープニューラルネットワーク(DNN)の大きさは精度を高め,より複雑な問題を解くために増加しているので,それらのエネルギーフットプリントも比例する。量せん定はDNNモデルサイズと冗長量を除去することにより計算を減少させた。しかしは,様々なハードウェアプラットフォームのいくつかの一般的なネットワークのための荷重枝刈りを実装し,驚くべき結果を観察した。多くのネットワークでは,重量剪定によるネットワークスパース性はモデルサイズと必要な乗算-積算作業の大幅な削減にもかかわらず全体性能を損なう実際にであろう。,ネットワークのスパースフォーマットをコードする付加的な記憶空間オーバヘッドを招く。これらの課題を克服するために,枝刈りネットワーク構造をマッチングデータ並列ハードウエア構成への基礎を成すハードウエアにDNN枝刈りをカスタマイズするメスを提案した。メスは二つの方法:SIMD(単一命令多重データ)を意識した荷重枝刈りとノードせん定から構成されている。低並列ハードウェア(例えば,マイクロコントローラ)では,SIMD(単一命令多重データ)を意識した荷重枝刈りは,SIMDユニットを完全に利用する整列した固定サイズ群の量を維持した。高並列ハードウェア(GPU)では,ノード剪定は,冗長なノード,冗長量を除去し,それによって緻密なマトリックス形式を犠牲にすることなく計算を減少させた。中程度の並列性(例えば,デスクトップCPU)を用いたハードウェアでは,SIMD(単一命令多重データ)を意識した荷重枝刈りとノードせん定は相乗的に一緒に適用した。マイクロコントローラ,CPUとGPUを横断して,メスは3.54X,2.61X,1.25Xの平均高速化を実現する一方で,モデルサイズを減少88%,82%,および53%であった。比較では,伝統的な重量せん定は三プラットフォームに跨って1.90x,1.06x,0.41xの平均高速化を達成した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】