抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
エキスパート(MoE)層のスパースゲート混合は,最近,大規模変圧器のスケーリング,特に言語モデリングタスクに対して成功裏に適用されている。スパースMoE層の興味深い副作用は,それらが自然エキスパート専門化を介してモデルに固有の解釈性を伝えることである。本研究では,コンピュータビジョンタスクのためにCNNにスパースMoE層を適用し,モデル解釈可能性に対する結果の影響を解析した。MoE訓練を安定化するために,ソフトおよびハード制約ベースアプローチの両方を提示した。ハード制約により,ある専門家の重みはゼロになるが,ソフト制約は付加的補助損失による専門家の寄与をバランスさせる。結果として,ソフト制約はエキスパート利用をよりよく扱い,専門家の専門化プロセスをサポートし,一方,ハード制約は,より一般化された専門家を維持し,全体のモデル性能を増加させる。著者らの知見は,専門家が入力空間の個々のサブドメインに暗黙的に焦点を合わせることができることを証明した。例えば,CIFAR-100画像分類のために訓練された専門家は,以前のデータクラスタリングなしで,花や動物のような異なるドメインを認識する際に特殊化する。さらに,RetinaNetとCOCOデータセットを用いた実験により,オブジェクト検出エキスパートが,異なるサイズのオブジェクトの検出において特殊化できることを示した。【JST・京大機械翻訳】