抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,視覚ネットワーク内の個々の隠れニューロンの機能を自動的に記述する新しい技術であるCLIP-Dissectを提案した。CLIP-Dissectは,任意のラベル付きデータまたはヒト例を必要とせずに,オープンエンド概念で内部ニューロンをラベルするために,マルチモーダルビジョン/言語モデルにおける最近の進歩を利用する。CLIP-Dissectは,隠れ層ニューロンに対する定性的に良好な記述と同様に,地上トラスが利用できる最後の層ニューロンに対して,既存の方法よりもより正確な記述を提供することを示した。さらに,著者らの方法は,非常に柔軟であり,それは,モデル診断であり,新しい概念を容易に取り扱うことができ,そして,将来,より良い多モードモデルの利点を取るために拡張することができた。最後に,CLIP-Dissectは計算的に効率的であり,ちょうど4分でResNet-50の5層からすべてのニューロンをラベル付けすることができ,それは既存の方法より10倍以上高速である。このコードはhttps://github.com/Trustworthy ML Lab/CLIP dissectで利用可能である。最後に,著者らの方法の有効性をさらに支持するために,Appendix Bでクラウドソースユーザ研究結果が利用可能である。【JST・京大機械翻訳】