抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,ロバストで透明なAIのための並列学習手法を取り上げる。深層ニューラルネットワークを複数のタスクで並列に訓練し,各タスクをネットワーク資源の部分集合上でのみ訓練した。各部分集合はネットワークセグメントから成り,特定のタスクを組み合わせ,共有できる。タスクは資源を他のタスクと共有できるが,独立タスク関連ネットワーク資源を持っている。したがって,訓練されたネットワークは,様々なタスクにわたって類似の表現を共有することができ,また,独立したタスク関連表現を可能にする。上記は,いくつかの重要な結果を可能にする。(1)著者らのアプローチの並列性は,壊滅的忘却の問題を否定する。(2)セグメントの共有は,より効率的にネットワーク資源を使用する。(3)ネットワークが,共有表現を通して,他のタスクにおけるいくつかのタスクから学習知識を実際に使用することを示した。(4)個々のタスク関連と共有表現の検査を通して,モデルはネットワークで透明度を提供し,マルチタスク設定でタスクを横断した。連続的学習,ニューラルアーキテクチャ検索,およびマルチタスク学習のような複雑な競合手法に対する提案アプローチの評価により,ロバスト表現を学習できることを示した。これは並列の多重タスクに関するDLモデルを訓練する最初の努力である。著者らのコードはhttps://github.com/MahsaPaknezhad/PaRTで利用可能である。【JST・京大機械翻訳】