文献
J-GLOBAL ID:202202236332048354   整理番号:22A0310974

画像キャプションのための知識蒸留の再検討【JST・京大機械翻訳】

Revisiting Knowledge Distillation for Image Captioning
著者 (3件):
資料名:
巻: 13069  ページ: 613-625  発行年: 2022年 
JST資料番号: H0078D  ISSN: 0302-9743  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
モデル圧縮とモデル性能の改善のための効果的な技術としての知識蒸留(KD)[6]は広く研究され採用された。しかし,ほとんどの以前の研究は,画像分類とシーケンス生成(例えば,ニューラルマシン翻訳のような)に関して焦点を合わせた。また,画像キャプテーションのための少数の研究がKDを組み込んだが,それらは主に訓練トリックとしてそれを扱うことに注目した。対照的に,本研究では,一連の実験を行うことによって,画像キャプテーションタスクの文脈においてKDを徹底的に調査した。特に,標準語レベルKDを画像キャプテーションモデルに適用し,交差モデル蒸留と自己蒸留を調べた。著者らは,自己蒸留が,教師のアーキテクチャの選択に時間を費やさずに,競合性能を達成できる実用的選択であることを発見した。ニューラルマシン翻訳(NMT)[11]のためのシーケンスレベル蒸留に触発されて,著者らは次に,画像キャプテーションのためにそれを採用して,修正して,競合性能を,わずかな性能劣化のコストでのビーム探索の必要性を除去することによって,資源の第1fifthだけを用いて得ることができて,推論の速度を,著しく改良することができた。NMTに対してBERT[19]を蒸留することにより,著者らは最終的にVL-BERT[12]を蒸留し,その双方向性を活用することにより,キャプテーションモデルを前方に探索することを試みた。Copyright Springer Nature Switzerland AG 2021 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る