文献
J-GLOBAL ID:202202288313427826   整理番号:22A0474250

HiDeNN-TD:低次元階層的深層学習ニューラルネットワーク【JST・京大機械翻訳】

HiDeNN-TD: Reduced-order hierarchical deep learning neural networks
著者 (5件):
資料名:
巻: 389  ページ: Null  発行年: 2022年 
JST資料番号: E0856A  ISSN: 0045-7825  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,階層的深層学習ニューラルネットワーク(HiDeNN)のテンソル分解(TD)に基づく縮小次数モデルを示した。提案したHiDeNN-TD法はHiDeNNとTD法の両方の利点を保持した。自動メッシュ適応性は,有限要素法(FEM)および従来の適切な一般化分解(PGD)およびTDより,FEM自由度の分率を用いて,HiDeNN-TDをより正確にする。本研究では,この方法の理論的基礎に焦点を当てた。したがって,FEM,PGD,TD,HiDeNNおよびディープニューラルネットワークを含む異なる方法と比較して,この方法の精度および収束を理論的および数値的に研究した。さらに,PGD/TDはモードの増大でFEMに収束し,PGD/TD解誤差はメッシュ離散化誤差とモード低減誤差の和であると理論的に示した。提案したHiDeNN-TDは,FEMよりも数桁少ない自由度で高い精度を示し,従って,大きなサイズのエンジニアリングと科学的問題に対して,高いレベルの精度で高速計算を達成する高いポテンシャルを示した。精度と効率の間のトレードオフとして,HiDeNN-PGDと呼ばれる高効率解戦略を提案した。解はHiDeNN-TDよりも精度が低いが,HiDeNN-PGDはPGD/TDおよびFEMよりも精度が高く,PGDに対する付加的コストが少量であった。Copyright 2022 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
数値計算 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る