Rchr
J-GLOBAL ID:200901038318444884   Update date: Jan. 30, 2024

Hara Kazuyuki

ハラ カズユキ | Hara Kazuyuki
Affiliation and department:
Job title: Project Professor
Homepage URL  (1): http://hara-lab.ee.cit.nihon-u.ac.jp
Research field  (2): Soft computing ,  Sensitivity (kansei) informatics
Research keywords  (8): stereoscopic ,  Deep Learning ,  On-line Learning theory ,  Neural Networks ,  Informational Statistical Mechanics ,  ensemble-learning ,  perceptron ,  On-line learning
Research theme for competitive and other funds  (4):
  • 2021 - 2025 深層学習によるCOVID-19感染伝搬と経済活動を同時制御する社会運営戦略の発見
  • 2018 - 2023 オンライン学習におけるドロップアウトの理論と最適化に関する研究
  • 2004 - 2006 Study on cooperation mechanism and it's dynamic behavior of many learning machines
  • 2001 - 2002 IMPROVEMENT OF CONVERGENCE OF LEARNING OF MULTI-LAYER NEURAL NETWORKS AND APPLICATION FOR SEARCH ENGINE
Papers (31):
MISC (21):
  • 原 一之, 上江洌 達也, 三好 誠司, 岡田 真人. パーシャルアニーリングの統計力学 : 相互作用がメキシカンハット型の場合(ハードウェア(2),ニューロハードウェア,一般). 電子情報通信学会技術研究報告. NC, ニューロコンピューティング. 2008. 108. 281. 79-83
  • 原 一之, 上江洌 達也, 三好 誠司, 岡田 真人. 22pVC-6 メキシカンハット型相互作用が時間変化する系のレプリカ解析II(22pVC 情報統計力学,領域11(統計力学,物性基礎論,応用数学,力学,流体物理)). 日本物理学会講演概要集. 2008. 63. 2
  • 岡田 真人, 原 一之, 三好 誠司. 21pWB-1 擬似教師つき学習とアンサンブル学習(ニューラルネットワーク,領域11,統計力学,物性基礎論,応用数学,力学,流体物理). 日本物理学会講演概要集. 2007. 62. 1
  • 原 一之, 岡田 真人. 21aWA-5 エージェント数が任意な場合の相互学習(情報統計力学,領域11,統計力学,物性基礎論,応用数学,力学,流体物理). 日本物理学会講演概要集. 2007. 62. 1
  • 原 一之, 岡田 真人. アンサンブル学習の統合機構と相互学習. 電子情報通信学会技術研究報告. NC, ニューロコンピューティング. 2006. 105. 658. 115-120
more...
Lectures and oral presentations  (14):
  • Performance of pre-learned convolution neural networks applied to recognition of overlapping digits
    (2020 IEEE International Conference on Big Data and Smart Computing (BigComp) 2020)
  • Performance of pre-learned convolution neuralnetworks applied to recognition of overlappingdigits
    (2020 IEEE International Conference on Big Data and Smart Computing (BigComp) 2020)
  • Empirical Study of Effect of Dropout in Online Learning
    (26th International Conference on Artificial Neural Networks 2017)
  • Analysis of Dropout Learning Regarded as Ensemble Learning
    (25th international conference on artificial neural networks 2016)
  • Node-perturbation Learning for Soft-committee machine
    (電子情報通信学会ニューラルコンピューティング研究会 2016)
more...
Education (5):
  • 1992 - 1997 Kanazawa University Graduate School, Division of National Science and Technology (except Gakushuin University, Konan University) System science
  • 1992 - 1997 Kanazawa University Graduate School, Division of National Science and Technology (except Gakushuin University, Konan University) System science
  • 1979 - 1981 Nihon University Graduate School, Division of Industrial Technology Electrical and Electronics Engineering
  • 1979 - 1981 Nihon University Graduate School, Division of Industrial Technology Electrical and Electronics Engineering
  • 1975 - 1979 Nihon University Faculty of Industrial Technology Department of Electrical Engineering
Professional career (2):
  • 博士(工学) (金沢大学)
  • Doctor of Engineering (Kanazawa University)
Work history (2):
  • 1998/04/01 - 2010/03/31 Tokyo Metropolitan College of Technology/Professor ものづくり工学科 Professor
  • 1998/04 - 2010/03 Tokyo Metropolitan College of Technology/Professor ものづくり工学科 Professor
Committee career (2):
  • 2021/04 - 2025/03 電子情報通信学会 情報・システムソサエティ英文論文誌編集委員
  • 2007/04 - 2011/03 日本神経回路学会 理事
Awards (2):
  • 2021/06 - The Institute of Electronics, Information andCommunication Engineers 2020年LOIS研究賞 マルチエージェントシミュレーションによるCOVID19接触確認アプリ COCOAの感染者数削減効果の検証
  • 2014/12 - Joint 7th International Conference on Soft Computing and Intelligent Systems and 15th International Symposium on Advanced Intelligent Systems Best Poster Award Mutual Leraning for Nonlinear Perceptron
Association Membership(s) (6):
日本シミュレーション学会 ,  The Physical Society of Japan ,  Japan Neural Network Soceity ,  IEEE ,  Information Processing Society of Japan ,  Institute of Electronics, Information and Communication Engineers
※ Researcher’s information displayed in J-GLOBAL is based on the information registered in researchmap. For details, see here.

Return to Previous Page