抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マルチヘッド自己注意は変圧器ネットワークのコアを形成する。しかし,入力シーケンス長に関して二次的に成長する複雑性は,資源制約付きエッジデバイス上の展開を妨げる。推論コストを減らすためにトークンを横断するデータの時間安定性を利用する動的剪定法を提案して,この課題に取り組んだ。閾値ベースの方法は,その後のトークン間の顕著な差を保持し,内部テンソルデータサイズと同様に多重累積の数を効果的に削減する。このアプローチをキーワードスポッティングのためのGoogle Speech Commandsデータセット上で評価し,その性能を基本キーワード変換機に対して比較した。著者らの実験は,元の98.4%の精度を維持しながら,操作の~80%を減少できることを示した。さらに,精度を1~4%だけ劣化させるとき,約7.5~16の因子でマルチヘッド自己注意推論をスピードアップするだけで,87~94%の操作の削減を達成できる。【JST・京大機械翻訳】