文献
J-GLOBAL ID:201802213211220061   整理番号:18A1688706

深日記 画像取得と要約【JST・京大機械翻訳】

Deepdiary: Lifelogging image captioning and summarization
著者 (3件):
資料名:
巻: 55  ページ: 40-55  発行年: 2018年 
JST資料番号: W0218A  ISSN: 1047-3203  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自動画像捕捉は,深い学習に基づく画像からテキストへの翻訳モデルにおけるブレークスルーによって駆動される過去数年間にわたって広く研究されてきた。しかし,本研究の多くは,MS-COCOのような標準データセットからのWeb画像の取得を考慮しており,分離における単一画像を考慮している。ある程度,自動的なキャプショニングモデルは,与えられた人の日々の視覚経験に対して特定されたより細かい文脈情報を学習させることができる。本論文において,著者らは,着用可能な,ライフロギングカメラから収集されたキャップ画像シーケンスを考察した。自動的に生成されたキャップは,それらの大規模なライフロギング写真収集の間の写真を発見し,想起するのを助けることができる。しかし,Web画像と異なり,ウェアラブルカメラからの写真は,明らかな単一の主題なしで,しばしばぼけがあり,ほとんど構成されない。それらの内容はまた,特定カメラのコンテキストと特性に高度に依存する傾向がある。これらの課題を解決するために,時間にわたる時間的制約と証拠を利用することを可能にする光の配列を結合する技術を導入し,生成された捕獲の多様性を増加させる技術を導入し,多重視点(例えば,第一人対第三人)から写真を記述できる。これらの技術を試験するために,約5000人の人間生成参照文で注釈付けされた部分集合である約8000の現実的なlifロギング画像のデータセットを収集した。著者らは,アマゾン機械的Turkを定量的および定性的に用いて画像捕捉の品質を評価し,これらのアルゴリズムは完全ではないが,それらは,lifロギング光を組織化し要約する助けとなる重要なステップであることを見出した。Copyright 2018 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る