Rchr
J-GLOBAL ID:201601008938474073   Update date: Dec. 19, 2025

Kato Kunihito

カトウ クニヒト | Kato Kunihito
Affiliation and department:
Other affiliations (2):
  • 研究推進・社会連携機構次世代金型技術研究センター生産システム研究部門IoT活用技術研究室  教授(兼)(工学部)
  • 工学研究科  教授
Homepage URL  (1): http://www.cv.info.gifu-u.ac.jp/
Research field  (1): Intelligent informatics
Research keywords  (9): Computer Vision ,  パターン認識 ,  Deep Learning ,  Kansei information processing ,  画像処理 ,  人物認識 ,  動画像処理 ,  近赤外画像 ,  食品画像処理
Research theme for competitive and other funds  (17):
  • 2023 - 2026 Latent Space Search for Adversarial Generative Networks for Sensitivity Quantification of Skilled Inspectors
  • 2023 - 2026 顔情報によるニホンザルの血縁推定:深層学習を用いたヒトの認知特性の検討
  • 2021 - 2025 Establishment of a method for monitoring wildlife populations: Collaboration of camera trapping, deep learning, and statistical modeling
  • 2021 - 2025 Establishment of a method for monitoring wildlife populations: Collaboration of camera trapping, deep learning, and statistical modeling
  • 2020 - 2023 A method for for generating normal model and discriminating anomalies by adversarial autoencoder using a small number of defective samples
Show all
Papers (256):
  • 上野詩翔, 林良和, 中塚俊介, 加藤邦人, 尾下拓未, 相澤宏旭. 汎用外観検査の性能向上に向けた視覚言語モデルの学習と推論法. 精密工学会誌. 2025. 91. 12. 1150-1155
  • Shiryu Ueno, Yoshikazu Hayashi, Shunsuke Nakatsuka, Hiroaki Aizawa, Kunihito Kato. Boosting explainability of visual inspection via multihead vision-language model. Seventeenth International Conference on Quality Control by Artificial Vision. 2025. 6-6
  • Takumi OSHITA, Shiryu UENO, Yusei YAMADA, Shunsuke NAKATSUKA, Kunihito KATO, Hiroaki AIZAWA, Yoshikazu HAYASHI. Large Vision-Language Model Can Few-Shot Anomaly Detection by In-Context Learning. Journal of the Japan Society for Precision Engineering. 2025. 91. 3. 418-424
  • Haruto YOSHIDA, Yukiya TAKI, Kunihito KATO, Kazunori TERADA. Personal Preference Estimation and Rationale Generation with Large Vision-Language Model. Journal of the Japan Society for Precision Engineering. 2025. 91. 3. 411-417
  • Shiryu Ueno, Yoshikazu Hayashi, Shunsuke Nakatsuka, Yusei Yamada, Hiroaki Aizawa, Kunihito Kato. Vision-Language In-Context Learning Driven Few-Shot Visual Inspection Model. Proceedings of the 20th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications. 2025. 253-260
more...
MISC (569):
  • 野村秀一朗, 相澤宏旭, 林良和, 加藤邦人. 誤ラベルに頑健な学習のためのInfoBatchによる動的サンプル選択. ビジョン技術の実利用ワークショップ ViEW2025, IS2-20. 2025. 369-375
  • 土田裕登, 林良和, 加藤邦人, 大澤紘作, 上野詩翔. 汎用外観検査のためのマルチモーダルリーズニング. ビジョン技術の実利用ワークショップ ViEW2025, IS1-20. 2025. 250-257
  • Noise-Robust Pruning via Norm Weighted Hessian. 2025
  • Noise-Robust Pruning via Norm Weighted Hessian. 2025. 128-135
  • Noise-Robust Pruning via Norm Weighted Hessian. 2025
more...
Patents (31):
  • 図面検索システム
  • 大規模視覚言語モデルによる、判断根拠生成型の個別嗜好推定方法
  • 大規模視覚言語モデルによる外観検査方法
  • ニューラルネットワークのパラメータ選択方法
  • Fourier-Convolutional PaDiMにおける性能向上と異常検知ロバスト性向上
more...
Education (2):
  • 1996 - 1996 中京大学大学院情報科学専攻科情報認知科学専攻博士課程
  • 1993 - 1995 中京大学大学院情報科学専攻科情報認知科学専攻修士課程
Professional career (1):
  • 博士(情報・認知科学) (中京大学)
Work history (4):
  • 1996/09 - 現在 Gifu University
  • 2021/04 - Gifu University Faculty of Engineering Department of Electrical, Electronic and Computer Engineering Professor
  • 2009/07 - 2021/03 Gifu University Faculty of Engineering Department of Electrical, Electronic and Computer Engineering
  • 2011/09 - 2012/08 University of Maryland Institute for Advanced Computer Studies Faculty Staff
Awards (14):
  • 2024/06 - 第30回画像センシングシンポジウム SSII2024 オーディエンス賞 大規模視覚言語モデルによる少量データからの汎用外観検査 ー画像と言語の対応関係が学習に与える影響ー
  • 2024/03 - 精密工学会誌 精密工学会論文賞 もつれ解き表現学習を用いた木目画像の官能検査
  • 2023/08 - ビジョン技術の実利用ワークショップ ViEW2023 小田原賞(優秀論文賞) 大規模視覚言語モデルのIn-Context Learningによる少量データからの外観検査
  • 2022/03 - 精密工学会誌 精密工学会論文賞 多重解像度マップを持つ補集合GANを用いた正常データのみの学習による外観検査法
  • 2020/06 - 優秀学術賞 Viewpoint-agnostic Image Rendering
Show all
Association Membership(s) (3):
THE JAPAN SOCIETY FOR PRECISION ENGINEERING ,  電気学会 ,  電子情報通信学会
※ Researcher’s information displayed in J-GLOBAL is based on the information registered in researchmap. For details, see here.

Return to Previous Page