文献
J-GLOBAL ID:202202260197012872   整理番号:22A1088205

タミルテキスト要約のためのトランスリレーションベース生成予訓練変圧器2モデル【JST・京大機械翻訳】

Transliteration based Generative Pre-trained Transformer 2 Model for Tamil Text Summarization
著者 (5件):
資料名:
巻: 2022  号: ICCCI  ページ: 1-6  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自動テキスト要約は,膨大な量のオンラインコンテンツから有用な情報を抽出するための自然言語処理において重要な役割を果たす。特に人間の日常生活において,オンラインニュース記事は,世界中の様々なメディアを通して,世界中の現在のイベントに関する情報を提供する。研究作業は,ニュースデータのための要約を作成するために,オンラインタミルニュース記事のためのタミルテキスト要約の問題に対処することに焦点を合わせる。本研究では,多数の関連特徴,即ち,文章位置,1つのホットエンコーディング,エンティティの数,項周波数,および逆文書周波数を抽出することにより,Tamil言語のためのオンラインニュース記事を要約するために,トランスリッタンスベースのGenerative Pre-訓練変換器2(GPT-2)モデルを提案した。Tamilと英語の言語間の翻訳を行うための注意ベースのLSTM-NMTトランスリットル化モデルを提案し,モデルの性能を解析するための他の変換モデルと比較した。さらに,微細調整Generative Pre-訓練変換機2(GPT-2)モデル,Text-To-Text転送変換器(T-5)モデル,および変換者(BERT)モデルからの双方向Encoder表現として知られている3つの事前訓練された変圧器モデルの間で,比較研究を行った。すべてのモデルの性能を評価するために,データセットを,様々なオンライン情報源からのデータを集めることによって,Tamil言語のために作成した。実験は,研究スコアに基づくバイリンガル評価に基づく強化変換モデルを評価するために行い,また,ROUGE評価尺度に基づくGPT-2ベースのテキスト要約モデルを評価した。性能解析は,トランスリッタンスベース生成プレトレーニング変換器2(GPT-2)モデルが,反復の発生を減らすことによって,より良い要約性能を達成することを示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る