文献
J-GLOBAL ID:202202277877023636   整理番号:22A0788121

モバイルエッジコンピューティングにおける適応自動スケーリング:深層強化学習アプローチ【JST・京大機械翻訳】

Adaptive Auto-Scaling in Mobile Edge Computing: A Deep Reinforcement Learning Approach
著者 (3件):
資料名:
巻: 2022  号: ICCECE  ページ: 586-591  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,5Gネットワークにおけるモバイルエッジコンピューティング(MEC)は,5Gの開発による有望なパラダイムとして浮上している。ネットワークのエッジにサービスノードを設定することにより,モバイルデバイスがエッジノードに計算タスクをオフロードし,より低い応答時間を達成し,より多くのデバイス電力を節約することができる。しかし,エッジノードの限られた容量のため,妥当な資源配分方法を実装することが重要である。自動スケーリングは,システムコストとサービス品質(QoS)の間のバランスを達成するために,需要と戦略に従って,エッジノードでコンテナ間の計算資源を自動的に調整できる技術である。このバランスを見つけるため,多くの研究者は,強化学習に基づくアルゴリズムに対して,ルールベースアルゴリズム,強化学習ベースアルゴリズムなどの異なる自動スケーリングアルゴリズムを提案して,ほとんどの研究者は自己スケーリングにおけるQ学習を適用し,良好な結果を達成して,強化学習の実現可能性を証明した。しかし,Q学習アルゴリズムは限られた行動空間で行動を選択するだけで,より精密な制御を達成することができない。したがって,本論文では,Markov決定プロセス(MDP)に基づいて,より正確な制御を達成するために,離散行動空間を連続動作空間に置き換える,Proximalポリシー最適化(PPO)に基づく自動スケーリングアルゴリズムを提案した。実験は,非スケーリング方法およびQ学習アルゴリズムと比較して,提案アルゴリズムが,それぞれ96.9%および86.6%の全体的改善を達成したことを示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る