抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
コンピュータビジョンのためのマルチヘッド自己注意(MSAs)の成功は,今や不可解である。しかし,MSAsがどのように働くかについてはほとんど知られていない。MSAsの性質をより良く理解するための基本的説明を提示した。特に,MSAsとVision変換器(ViT)の次の性質を示した。(1)MSAsは精度だけでなく,損失景観の平坦化による一般化も改善する。このような改善は主にそれらのデータ特異性に起因し,長距離依存性ではない。一方,Vitsは非凸損失に悩まされる。大きなデータセットと損失景観平滑化法はこの問題を軽減する。(2)MSAsとConvsは反対の挙動を示す。例えば,MSAsはローパスフィルタであるが,Convsは高いパスフィルタである。したがって,MSAsとConvsは相補的である;(3)多段ニューラルネットワークは,小さな個々のモデルの直列接続のように振舞う。さらに,ステージの終わりのMSAsは,予測において鍵となる役割を果たす。これらの洞察に基づいて,ステージの終わりにConvブロックをMSAブロックで置換するモデルであるAlterNetを提案した。AlterNetは,大きなデータ領域だけでなく,小さなデータ領域でもCNNを凌駕する。コードはhttps://github.com/xxxnell/how do vits workで利用可能である。【JST・京大機械翻訳】