文献
J-GLOBAL ID:202102278415108099   整理番号:21A1476487

埋込みマルチコアプロセッサにおけるマルチモデル推論加速【JST・京大機械翻訳】

Multi-Model Inference Acceleration on Embedded Multi-Core Processors
著者 (4件):
資料名:
巻: 2020  号: ICHCI  ページ: 400-403  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
オンデバイス推論を可能にする主な資源効率的手法は,モバイルネット,SqueezeNet,ネットワーク剪定,ベクトル量子化,蒸留,二値化のような技法を用いた圧縮モデルのような軽量DNNアーキテクチャの設計を含む。また,CNNベースのモデル推論の動的層別分割と部分実行を用いた最近の研究は,メモリと計算資源制約付きデバイスを共推論することを可能にした。しかしながら,これらのアプローチは,それらの自身のボトルネック,軽量DNNアーキテクチャ,およびモデル圧縮が,通常,資源制約付きデバイスに展開するために精度を妥協し,動的モデル分割効率は,ネットワーク条件に大きく依存する。本論文では,不均一デバイス上のマルチモデル推論加速のためのアプローチを提案した。アイデアは,1つの重い複数オブジェクトの代わりに複数の単一オブジェクト検出モデルを展開することであり,これは,ほとんどの場合,1つのシナリオで1つまたは2つのオブジェクトを検出するだけであり,単一オブジェクト検出モデル重量は,同じ分解能品質のために軽く,より少ない資源を必要とするのである。さらに,クラウドエッジデバイスシナリオでは,スケジューラ政策の支援により,必要なモデルは徐々に更新できる。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る