文献
J-GLOBAL ID:202102250490881300   整理番号:21A0444764

顔動作単位を用いた疼痛評価のための多次元測定の調査【JST・京大機械翻訳】

Exploring Multidimensional Measurements for Pain Evaluation using Facial Action Units
著者 (2件):
資料名:
巻: 2020  号: FG  ページ: 786-792  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
疼痛は多次元的経験であると広く認識されているが,通常,1次元患者自己申告視覚アナログ尺度(VAS)により測定される。しかし,自己申告性疼痛は主観的であり,解釈が困難で,時には入手できない。機械学習モデルは,フレームレベルとシーケンス(またはビデオ)レベルの両方で疼痛を自動的に認識するために開発された。多くの方法は,筋肉運動による表情を記述するための顔行動符号化システム(FACS)によって定義される顔行動単位(AU)を使用または学習する。本論文では,配列レベル多次元疼痛測定およびフレームレベルAUとAU導出疼痛関連尺度,PrkachinおよびSolomon疼痛強度(PSPI)の間の関係を分析した。フレームレベル計量からシーケンスレベル計量を学習する方法を研究した。特に,訓練中の他の配列レベル疼痛測定の助けを借りて,ヒト標識AUからのVASを予測するための拡張マルチタスク学習モデルを検討した。このモデルは2つの部分から成る:多次元疼痛スコアを予測するマルチタスク学習ニューラルネットワークモデルと,多次元疼痛スコアを最良近似VASに線形結合するためのアンサンブル学習モデル。ヒト標識AUsから出発して,モデルは1.73のVASで平均絶対誤差(MAE)を達成した。それは,1.76のMAEを有するヒト配列レベル推定を提供した。機械学習モデルと人間の推定を組み合わせると,1.48のVASでMAEの最良の性能が得られる。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
NMR一般  ,  図形・画像処理一般  ,  医用画像処理 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る