プレプリント
J-GLOBAL ID:202202200108907391   整理番号:21P0054422

ビューメーカーネットワーク:教師なし表現学習のための学習ビュー【JST・京大機械翻訳】

Viewmaker Networks: Learning Views for Unsupervised Representation Learning
著者 (3件):
資料名:
発行年: 2020年10月14日  プレプリントサーバーでの情報更新日: 2021年03月29日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
教師なし表現学習訓練モデルの多くの最近の方法は,入力の異なった「視点」または歪んだバージョンに不変である。しかし,これらの見解を設計することは,人間専門家によるかなりの試行錯誤を必要とし,ドメインとモダリティを横断した教師なし表現学習法の広範な採用を妨げている。これに取り組むために,与えられた入力から有用なビューを生成するように学習する生成モデル,ビューマネットワークを提案する。ビューメーカーは確率的有界広告であり,それらは入力にl_p結合摂動を生成し,次に,主符号器ネットワークに関して敵対的に訓練する。注目すべきことに,CIFAR-10の予訓練では,学習された見解は,作付けやカラージッタのような変換を含まなくても,良く調整されたSimCLR増強に対する同等の転送精度を可能にする。さらに,著者らの学習された見解は,音声記録(+9%ポイント,平均)およびウェアラブルセンサデータ(+17%ポイント)に関して,ベースライン増強を著しく凌駕した。また,ビューメーカーは手作業の見解と組み合わせることができる:それらは一般的な画像障害に対するロバスト性を改善し,手作業の見解があまり探索されない場合における転送性能を増加させることができる。これらの結果は,ビューメーカーが,より一般的な表現学習アルゴリズムに対する経路を提供し,ドメイン専門知識を縮小し,ドメインをはるかに広いセットに事前訓練するために必要な努力を,提供することを示唆する。コードはhttps://github.com/alextamkin/viewmakerで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る