抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
活性化機能はニューラルネットワークの必須成分の1つとして来ている。適切な活性化関数の選択はこれらの方法の精度に影響を与える。本研究では,既存の活性化関数の加重和として定義し,次に,ネットワークを訓練しながら,これらの重みをさらに最適化することにより,最適活性化関数を見つけるための実験を行った。本研究では,3つの活性化関数,ReLU,tanh,およびsinを,3つの一般的な画像データセット,MNIST,FashionMNIST,およびKMNISTSTを用いて使用した。ReLU活性化機能は,他の活性化機能を容易に見落とすことを観察した。また,初期層はReLUまたはLeakyReLU型の活性化機能を有するが,より深い層はより収束する活性化機能を好む傾向がある。【JST・京大機械翻訳】