抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マスク自動符号化は,画像と言語領域における自己監督学習のために大きな成功を達成した。しかし,マスクベースの予訓練は,訓練中のマスキングによって導入された,訓練対試験分布ミスマッチを適切に取り扱うことができない点Netetのような標準バックボーンにより,点雲理解のために利点をまだ示されていない。本論文では,点雲に対して,識別マスク予訓練変換器フレームワーク,MaskPoint}を提案することにより,このギャップを埋める。重要なアイデアは,離散占有値としてポイントクラウドを表現し(点クラウドの一部,0ならば),マスクされたオブジェクトポイントとサンプリングされたノイズポイントの間の単純なバイナリ分類をプロキシタスクとして実行することである。この方法で,提案アプローチは点雲における点サンプリング分散に対してロバストであり,学習豊かな表現を容易にする。3D形状分類,セグメンテーション,および実語物体検出を含む,いくつかの下流タスクを横断した事前訓練モデルを評価し,最先端の結果を示し,一方,以前の最先端の変換基準と比較して,有意な予訓練高速化(例えば,ScanNet上で4.1x)を達成した。コードはhttps://github.com/haotian liu/MaskPointで利用可能である。【JST・京大機械翻訳】