抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層強化学習(DRL)解は,動的環境における自律意思決定を可能にするので,ネットワークのエッジで普及している。しかし,絶えず変化する環境に適応できるため,埋込みデバイスに実装されたDRLソリューションは,初期収束後でさえ探索的行動を時々取り込む必要がある。言い換えれば,この装置は,ランダム動作を時々取り,価値関数を更新し,すなわち,その性能を最適に維持するために,人工ニューラルネットワーク(ANN)を再訓練する。残念なことに,組込み装置はANNを訓練するのに必要な処理電力とエネルギーをしばしば欠いている。エネルギー面は,エッジデバイスがエネルギーハーベスト(EH)の手段によってのみ駆動される場合に特に困難である。この問題を克服するために,DRLプロセスをシンクで訓練する2部分アルゴリズムを提案した。次に,完全に訓練された基礎ANNの重みを,動作を取り入れたEH動力組込み装置に周期的に転送する。EH動力センサ,実世界測定データセット,および情報(AoI)メトリックの年齢の最適化を用いて,そのようなDRL解は,1日あたりわずかのANN更新だけで,性能の劣化なしに動作できることを示した。【JST・京大機械翻訳】