文献
J-GLOBAL ID:201802210772666264   整理番号:18A1769007

正準多項分解に基づく改良型深層計算モデル【JST・京大機械翻訳】

An Improved Deep Computation Model Based on Canonical Polyadic Decomposition
著者 (4件):
資料名:
巻: 48  号: 10  ページ: 1657-1666  発行年: 2018年 
JST資料番号: C0425D  ISSN: 2168-2216  CODEN: ITSMFE  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い計算モデルは,大きいデータ特徴学習のために超性能を達成した。しかしながら,深い計算モデルの訓練は,深い計算モデルが典型的に多数のパラメータを含むので,重要な挑戦を引き起こす。特に,大規模メモリと強力な計算ユニットを有する高性能計算サーバを必要とし,深い計算モデルを訓練するために,従来のデスクトップや携帯CPUのような低エンドデバイスに関する大規模データ特徴学習のための深い計算モデルのサイズを増加させることを困難にしている。本論文では,パラメータを圧縮し,訓練効率を改善するために,正準多項分解方式に基づく改良型深い計算モデルを提案した。さらに,提案したモデルのパラメータを訓練するために,逆伝搬戦略に基づく学習アルゴリズムを考案した。学習アルゴリズムは,訓練効率を改善するために,圧縮パラメータに関して直接実行することができた。最後に,3つの代表的なデータセット,すなわちCUAVE,SNAE2,およびSTL-10に関する実験を行い,従来の深い計算モデルおよびTucker分解とテンソル列ネットワークに基づく他の2つの改良された深い計算モデルと比較することによって提案したモデルの性能を評価した。結果は,提案したモデルがパラメータを大いに圧縮することができて,低い分類精度低下によって著しくトレーニング効率を改良することができることを実証した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
応用心理学  ,  人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る