抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚認識のための畳み込みニューラルネットワーク(CNN)の代替として,視覚変換機(ViT)が浮上している。それらはCNNとの競合結果を達成するが,典型的な畳み込み誘導バイアスの欠如は共通のCNNよりも多くのデータハンガリーを作る。それらは,しばしばJFT-300Mまたは少なくともImageNetで事前訓練され,限られたデータでVITを訓練する研究はほとんどない。本論文では,限られたデータ(例えば2040画像)を用いてVitsを訓練する方法を検討した。提案手法(パラメトリックインスタンス識別に基づく)は,特徴アラインメントとインスタンス類似性の両方を捉えることができる他の方法よりも優れていることを理論解析で示した。種々のViTバックボーンの下で7つの小さなデータセットのスクラッチから訓練するとき,最先端の結果を達成した。また,小データセットの移動能力を調べ,小データセットから学習された表現が大規模画像Net訓練を改良できることを見出した。【JST・京大機械翻訳】