抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(DNN)のような現代の機械学習ツールは,自然言語処理,コンピュータビジョン,およびモノのインターネットのような多くの分野で革命的役割を果たす。一旦訓練されると,深層学習モデルをエッジコンピュータ上に展開し,これらのアプリケーションの実時間データに関する分類と予測を行う。特に大きなモデルに対して,単一エッジデバイス上の限られた計算およびメモリ資源は,推論パイプラインのためのスループットボトルネックになる。スループットを増加させ,デバイス当たりの計算負荷を低減するために,分散エッジ推論のためのフレームワークであるDEFER(Distribed Edge FERence)を提示し,複数の計算ノードに広がる深層ニューラルネットワークを層へ分割する。アーキテクチャは,DNN分割と推論データを各計算ノードに分配する単一「ディスパッチ」ノードから成る。計算ノードは,各ノードの計算結果が後続ノードに中継される一連のパターンで接続される。その結果をDispatcherに戻した。COREネットワークエミュレータを用いた現実的なネットワーク条件下で,スループット,エネルギー消費,ネットワークペイロード,およびオーバヘッドを定量化した。ResNet50モデルに対して,8つの計算ノードを持つDEFERの推論スループットは53%高く,ノードエネルギー消費は単一デバイス推論よりも63%低いことを見出した。さらに,ZFPシリアル化とLZ4圧縮アルゴリズムを用いて,ネットワーク通信要求とエネルギー消費を低減する。TensorFlow and Keras MLライブラリを用いてPythonにDEFERを実装し,研究コミュニティに利益を与えるオープンソースフレームワークとしてDEFERをリリースした。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】