抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
多くの参照から新しい中国語フォントを創出することは容易なタスクであるが,少数の参照からそれを生成するのは難しい。本論文では,単一参照からの任意の中国語フォント生成の問題を検討し,単一参照から任意の中国語フォントを自動的に生成するため,1参照中国語フォン生成ネットワーク(OCFGNet)と名付けた深層学習ベースモデルを提案した。もつれた表現学習に基づいて,スタイルとコンテンツ表現にスタイル化した中国語文字の表現を分離した。次に,提案モデルのために,スタイル符号器,コンテンツ符号器および結合復号器から成るニューラルネットワークを設計した。スタイル符号器はスタイル参照のスタイル特徴を抽出し,コンテンツ符号器がコンテンツ基準のコンテンツ特徴を抽出し,コンテンツ表現にマップする一方で,連続変分自動エンコーダ(VAE)潜在変数空間に写像する。最後に,結合復号器は,スタイル基準のスタイルとコンテンツ基準の内容を有する特性を生成するために,層別で両方の表現を連結する。さらに,Generative Adversarial Network(GAN)構造に基づいて,受信特性が実または偽であるかどうかを区別するためにパッチレベル識別子を採用した。敵対損失の他に,著者らは,L1正則化per-pix損失を採用するだけでなく,新しい損失項構造SIMility(SSIM)を一緒に組み合わせ,さらに,著者らのモデルを,明確で満足のいく結果を作り出すために,さらに駆動する。実験結果は,提案モデルが,スタイルとコンテンツ特徴をうまく抽出できるだけでなく,単一参照からの中国語フォントの生成において良い性能を持っていることを証明した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】