プレプリント
J-GLOBAL ID:202202213382730770   整理番号:22P0307595

AraBART:抽象的要約のための事前訓練アラビア語系列-シーケンスモデル【JST・京大機械翻訳】

AraBART: a Pretrained Arabic Sequence-to-Sequence Model for Abstractive Summarization
著者 (5件):
資料名:
発行年: 2022年03月21日  プレプリントサーバーでの情報更新日: 2022年03月21日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ほとんどの自然言語理解と生成タスクのように,要約のための最先端のモデルは,大きなコーパス上で事前訓練された変圧器ベースのシーケンスツーシーケンスアーキテクチャである。ほとんどの既存のモデルは英語に集中していたが,アラビアは研究中である。本論文では,BARTに基づいて符号器と復号器が事前訓練されたエンドツーエンドであるAraBARTを提案した。AraBARTは,複数の抽象的要約データセット上で最良の性能を達成し,事前訓練アラビアBERTベースモデルおよび多言語mBARTおよびmT5モデルを含む強いベースラインより優れていることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
システム・制御理論一般  ,  ニューロコンピュータ  ,  自然語処理 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る