文献
J-GLOBAL ID:202202248969982074   整理番号:22A0488704

DEFER:深層ニューラルネットワークのための分散型エッジ推論【JST・京大機械翻訳】

DEFER: Distributed Edge Inference for Deep Neural Networks
著者 (2件):
資料名:
巻: 2022  号: COMSNETS  ページ: 749-753  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(DNN)のような現代の機械学習ツールは,自然言語処理,コンピュータビジョン,およびモノのインターネットのような多くの分野で革命的役割を果たす。一旦訓練されると,深層学習モデルをエッジコンピュータ上に展開し,これらのアプリケーションの実時間データに関する分類と予測を行う。特に大きなモデルに対して,単一エッジデバイス上の限られた計算およびメモリ資源は,推論パイプラインのためのスループットボトルネックになる。スループットを増加させ,デバイス当たりの計算負荷を低減するために,分散エッジ推論のためのフレームワークであるDEFER(Distribed Edge FERence)を提示し,複数の計算ノードに広がる深層ニューラルネットワークを層へ分割する。アーキテクチャは,DNN分割と推論データを各計算ノードに分配する単一「ディスパッチ」ノードから成る。計算ノードは,各ノードの計算結果が後続ノードに中継される一連のパターンで接続される。その結果をDispatcherに戻した。COREネットワークエミュレータを用いた現実的なネットワーク条件下で,スループット,エネルギー消費,ネットワークペイロード,およびオーバヘッドを定量化した。ResNet50モデルに対して,8つの計算ノードを持つDEFERの推論スループットは53%高く,ノードエネルギー消費は単一デバイス推論よりも63%低いことを見出した。さらに,ZFPシリアル化とLZ4圧縮アルゴリズムを用いて,ネットワーク通信要求とエネルギー消費を低減する。TensorFlow and Keras MLライブラリを用いてPythonにDEFERを実装し,研究コミュニティに利益を与えるオープンソースフレームワークとしてDEFERをリリースした。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る