文献
J-GLOBAL ID:201002275362821802   整理番号:10A0066316

大規模自然言語処理学習データのための複数弱仮説を生成する弱学習器を用いるAdaBoost手法

An AdaBoost Using a Weak-Learner Generating Several Weak-Hypotheses for Large Training Data of Natural Language Processing
著者 (3件):
資料名:
巻: 130  号:ページ: 83-91 (J-STAGE)  発行年: 2010年 
JST資料番号: S0810A  ISSN: 0385-4221  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
AdaBoostアルゴリズムは,自然言語処理,手書き文字認識などで成功を収めている。しかしAdaBoostは,最終仮説を構成する複数の弱仮説を生成するために,異なる重みを持つ同一の学習データに対し複数回の学習を行い,さらに自然言語処理のように膨大な数の事例を扱う際には,学習時間が大きな問題となる。本稿では,複数の弱仮説を生成する弱学習器を用いるAdaBoost手法を提案した。本手法では,各学習ラウンドで生成される各弱仮説に対し,訓練誤差の上限値を減らすように確信度を付与して収束性を保証した。本手法の評価タスクとして,英語の品詞タグ付けと英語の基本フレーズを識別するテキストチャンキングを用いた。提案したアルゴリズムは,評価タスクで良い精度を示しているサポートベクトルマシンと実験により比較した。本手法により,高い精度を確保しながら学習時間が大幅に低減できることを実証した。
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理  ,  人工知能 
引用文献 (26件):
  • (1) R. Ando and T. Zhang: “A high-performance semi-supervised learning method for text chunking”, In Proc. of ACL '05, pp. 1-9 (2005)
  • (2) X. Carreras, L. Màrques, and L. Padró: “Named entity extraction using adaboost”, In Proc. of CoNLL-2002, pp. 167-170 (2002)
  • (3) M. Collins: “Discriminative training methods for Hidden Markov Models: theory and experiments with perceptron algorithms”, In Proc. of EMNLP '02, pp. 1-8 (2002)
  • (4) M. Collins and T. Koo: “Discriminative reranking for natural language parsing”, Comput. Linguist., Vol. 31, No. 1, pp. 25-70 (2005)
  • (5) H. Daumé III and D. Marcu: “Learning as search optimization: Approximate large margin methods for structured prediction”, In Proc. of ICML '05, pp. 169-176 (2005)
もっと見る

前のページに戻る