プレプリント
J-GLOBAL ID:202202207063449111   整理番号:22P0145279

画像圧縮のための文脈ベース非局所エントロピーモデリングの学習【JST・京大機械翻訳】

Learning Context-Based Non-local Entropy Modeling for Image Compression
著者 (5件):
資料名:
発行年: 2020年05月10日  プレプリントサーバーでの情報更新日: 2020年05月10日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
符号のエントロピーは,通常,最近の学習損失画像圧縮法における速度損失として機能する。符号の確率的分布の正確な推定は,性能において重要な役割を果たす。しかしながら,既存の深層学習ベースのエントロピーモデリング法は,一般的に潜在符号が統計的に独立であるか,あるいはいくつかの側面情報または局所コンテキストに依存すると仮定し,それは,文脈の中で大域的類似性を考慮せず,従って正確なエントロピー推定を妨げる。この問題に取り組むために,コンテキスト内の大域的類似性を採用することにより,コンテキストモデリングのための非局所操作を提案した。具体的には,まず,文脈モデリングにおける欠測参照問題を処理するために,プロキシ類似性関数と空間マスクを導入した。次に,非局所注意ブロックを介して局所および大域コンテキストを結合し,エントロピーモデリングのためのマスク畳込みネットワークにおいてそれを採用した。エントロピーモデルを,変換符号化フレームワークにおける解析変換と合成変換ネットワークの訓練を導くために,結合速度歪最適化における速度損失としてさらに採用した。変換の幅が低歪モデルの訓練において必須であることを考慮して,著者らは最終的に,管理可能メモリ消費と時間複雑性によって幅を増加させるために変換においてU-Netブロックを作り出した。KodakとTecnickデータセットに関する実験は,既存の画像圧縮標準と最近の深層画像圧縮モデルに対する低歪み圧縮におけるエントロピーモデリングとU-Netブロックにおける提案したコンテキストベース非局所注意ブロックの優位性を実証した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る