抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
言語理解モデルのための新しい課題タスクとデータセットであるTuring Adviceを提案する。実人が現在直面している書かれた状況を考えると,モデルは自然言語において有用なアドバイスを生成しなければならない。著者らの評価フレームワークは,人間言語理解の基本的側面を,言語利用の能力を,互いに通信することにより,オープンエンド状況を解決する能力に,試験する。経験的結果は,今日のモデルが,600kのドメイン内訓練事例で微調整されたマルチビリオンパラメータモデルであっても,Turing Adviceで苦しんでいることを示した。最良のモデル,微調整されたT5は,少なくとも14%のケースで,人間が書き込んだアドバイスと少なくとも役立つというアドバイスを書く。はるかに大きい非微細同調GPT3モデルは4%でさらに悪い。この低性能は,生成設定の外でスポットするのが難しい言語理解誤差を明らかにし,進歩の余地が大きいことを示している。【JST・京大機械翻訳】