プレプリント
J-GLOBAL ID:202202205553136640   整理番号:22P0208037

動的DAGスケジューリングのための幾何学的深層強化学習【JST・京大機械翻訳】

Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling
著者 (4件):
資料名:
発行年: 2020年11月09日  プレプリントサーバーでの情報更新日: 2020年11月09日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
実際には,非決定と動的性とともに不確実性を含む組合せ最適化問題に直面した。これらの3つの特性は適切なアルゴリズムを要求する。強化学習(RL)は,非常に自然な方法でそれらを扱う。今日,いくつかの努力にもかかわらず,ほとんどの現実の組合せ最適化問題は,強化学習アルゴリズムの到達から残っている。本論文では,現実的なスケジューリング問題を解くための強化学習アプローチを提案し,それを高性能計算コミュニティ,Cholesky因数分解において一般的に実行されるアルゴリズムに適用した。タスクが並列実行の開始前に予め決められた順序付けにおいてプロセッサに割り当てられる静的スケジューリングとは対照的に,この方法は動的である:タスク割当とそれらの実行順序付けは,システム状態と予想外のイベントに基づいて実行時間で決定され,それははるかに柔軟性を可能にする。そうするために,著者らのアルゴリズムは,フライに関する問題の適応表現を構築するために,アクター-批評アルゴリズム(A2C)と組み合わせたグラフニューラルネットワークを使用した。このアプローチが,高性能計算実行時間システムで使用される最先端の発見的手法と競合することを示した。さらに,このアルゴリズムは,環境の明示的なモデルを必要としないが,余分な知識が容易に取り込まれ,性能を改善できることを実証する。また,このRLアプローチによって提供される重要な特性も示し,他の事例へのその移動能力を研究した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る