文献
J-GLOBAL ID:202102217248068774   整理番号:21A0005948

多重情報空間対数時間LSTM融合連続手話ニューラル機械翻訳【JST・京大機械翻訳】

Multi-Information Spatial-Temporal LSTM Fusion Continuous Sign Language Neural Machine Translation
著者 (4件):
資料名:
巻:ページ: 216718-216728  発行年: 2020年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
サイン言語認識(SLR)には2つの基本的問題がある:(a)孤立語SLRと(b)連続SLR。既存の連続SLR法の大部分は,孤立語SLR法の拡張である。これらの方法は,基本モジュールとして分離単語SLR結果を使用して,文章セグメンテーションと単語アラインメントを通して文章認識結果を得る。しかしながら,文章セグメンテーションと単語アラインメントはしばしば正確でなく,低い文章認識精度をもたらす。同時に,連続SLRは通常厳密なサンプルラベルを必要とし,手動ラベリングの困難な作業と限られた訓練データアベイラビリティをもたらす。これらの課題に取り組むために,本論文では,連続SLRのための双方向空間四角形時間LSTM融合注意ネットワーク(Bi-ST-LSTM-A)を提案した。この手法は,文章セグメンテーション,単語アラインメント,および退屈な手動ラベリングのような問題を回避する。著者らの貢献を以下の通りまとめた。(1)畳み込みニューラルネットワーク(CNN)と時空間LSTM(ST-LSTM)情報融合技術を用いた符号言語ビデオ特徴表現法を提案した。(2)非特異的環境における非特異的人々の複雑な連続SLRとジェスチャ認識に使用できる均一ニューラルマシン翻訳フレームワークを構築した。実験を,いくつかの大規模連続符号言語データセットで行った。サイン言語認識精度は,500CSLデータセットで81.22%,RWTH-PHOENIX-Weatherデータセットで76.12%,RWTH-PHOENIX-Weaher-2014Tデータセットで75.32%に達し,それによって,提案フレームワークの有効性を示した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  自然語処理 

前のページに戻る