プレプリント
J-GLOBAL ID:202202209792387986   整理番号:22P0274875

Taylor-Lagrangeニューラル常微分方程式:ニューラルODEの高速訓練と評価に向けて【JST・京大機械翻訳】

Taylor-Lagrange Neural Ordinary Differential Equations: Toward Fast Training and Evaluation of Neural ODEs
著者 (5件):
資料名:
発行年: 2022年01月14日  プレプリントサーバーでの情報更新日: 2022年12月28日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ニューラルネットワークを用いた微分方程式のニューラル常微分方程式(NODE)-パラメタリゼーションは,データから未知の連続時間力学系の学習モデルにおいて非常に有望であることを示した。しかし,NODEのあらゆるフォワード評価は,システムダイナミックスを捉えるために使用するニューラルネットワークの数値統合を必要とし,それらの訓練を禁止的に高価にする。既存の研究は,訓練のための十分な精度を得るために,根底にある動力学ネットワークの評価の過剰な数を必要とする,オフラインの適応型ステップサイズ数値積分方式に依存する。対照的に,数値積分に対するデータ駆動アプローチを提案することにより,NODEの評価と訓練を加速する。提案したTaylor-LagrangeNODE(TL-NODE)は,数値積分のための固定次数Taylor展開を使用し,一方,拡張近似誤差を推定するための学習も行った。その結果,提案した手法は,低次Taylor展開のみを採用して,適応ステップサイズスキームと同じ精度を達成し,従って,NODEを統合するために必要な計算コストを大幅に削減する。モデリング動的システム,画像分類,および密度推定を含む一連の数値実験は,TL-NODEが,性能を損なうことなく,最先端の手法よりも1桁以上速く訓練できることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
数値計算 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る