文献
J-GLOBAL ID:201802280164406389   整理番号:18A1027860

動的時間ワーピングとニューラルネットワークを用いた人間-コンピュータ相互作用のためのフレームワーク【JST・京大機械翻訳】

A framework for human-computer interaction using dynamic time warping and neural network
著者 (2件):
資料名:
巻: 2017  号: ICICI  ページ: 242-246  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
発話と聴覚における不適切性のために,コミュニケーションにおける困難さに直面するコミュニティには常に人々のグループが存在する。これらの人々は,それらのメッセージを伝えて,それらのメッセージを受け取るために,いくつかのシンボルとジェスチャーを使用して,このコミュニケーションの形態は,Sign言語として知られている。著者らは,人間の20のジョイント位置を追跡するMicrosoft Kinect深さカメラの最新技術を利用することによって,最初のモジュールのための動的時間ワーピング(DTW)に基づく解法と第2のモジュールのためのソフトウェアベースの解法を提供した。音声/テキスト変換ブロックに対する符号において,アクターはKinect視野内でいくつかの有効なジェスチャを実行する。ジェスチャはKinectセンサによって取り上げられ,次に辞書における既に保存されている訓練されたジェスチャと比較することによって解釈される。サインが認識された後,音声変換とテキスト変換モジュールに転送されるそれぞれの単語にコピーされ,出力を生成する。第2のブロックでは,Kinectによって取られるKinect視野における人の話者が発話し,このシステムは音声をテキストに変換し,対応する単語をスクリーン上にあるあらかじめ定義されたジェスチャーに写像する。この方法で,障害者は話し言葉を視覚化できる。音声モジュールに対するサインの精度は87%であり,ジェスチャーモジュールに対する音声の精度は91.203%であることが分かった。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  人間機械系  ,  図形・画像処理一般  ,  ロボットの運動・制御 

前のページに戻る