Rchr
J-GLOBAL ID:200901099669491268   Update date: Nov. 25, 2020

Sato Yoichi

Sato Yoichi
Affiliation and department:
Research field  (2): Intelligent robotics ,  Perceptual information processing
Research keywords  (30): 環境埋め込み型カメラネットワーク ,  タイミング構造のモデル化 ,  発話タイミング ,  ロボットインタラクション ,  動的イベント認識 ,  指差し動作 ,  運動軌跡推定 ,  ソフトウェアGPS ,  ジェスチャ認識 ,  測位環境シミュレータ ,  ハイブリッド・コンピューティング ,  実世界指向インタフェース ,  シームレス測位 ,  赤外線画像処理 ,  動作解析 ,  複数指先軌跡計測 ,  マン・マシン・インタフェース ,  疑似衛星 ,  手持ち物体のディジタル化 ,  実光源環境計測 ,  非接触実時間計測 ,  実世界志向インターフェース ,  視線・注視対象の検出 ,  複合現実感 ,  コンピュータグラフィクス ,  マルチモーダル ,  人間と共生する情報システム ,  ヒューマン・コンピュータ・インタラクション ,  表情分析 ,  動画像処理
Papers (329):
more...
MISC (33):
  • 粥川青汰, 樋口啓太, 米谷竜, 中村優文, 佐藤洋一, 森島繁生. 物体検出とユーザ入力に基づく一人称視点映像の高速閲覧手法. 情報処理学会研究報告(Web). 2017. 2017. DCC-17. Vol.2017-DCC-17,No.4,1-8 (WEB ONLY)
  • Visual Attention Guidance Using Image Resolution Control. IPSJ Journal. 2015. 56. 4. 1152-1161
  • OZAKI Yasunori, SUGANO Yusuke, SATO Yoichi. Image Preference Estimation with Gaze and Image Features. Technical report of IEICE. PRMU. 2014. 113. 493. 1-6
  • YE BINBIN, SUGANO YUSUKE, SATO YOICHI. Investigating individual differences in learning-based visual saliency models. Technical report of IEICE. PRMU. 2013. 113. 196. 71-76
  • Kasai Hiroshi, OGAKI Keisuke, SUGANO Yusuke, SATO Yoichi. Image Preference Estimation using Gaze Information. ITE Technical Report. 2013. 37. 12. 55-58
more...
Professional career (1):
  • PhD in Robotics (Carnegie Mellon University)
Work history (4):
  • 2010 - 現在 The University of Tokyo Institute of Industrial Science
  • 2005 - 2010 東京大学 大学院情報学環 准教授
  • 2000 - 2005 The University of Tokyo Institute of Industrial Science
  • 1997 - 2000 The University of Tokyo Institute of Industrial Science
Awards (25):
  • 2012 - 電子情報通信学会 情報・システムソサイエティ活動功労賞
  • 2011/03 - 日本学術振興会 日本学術振興会賞
  • 2010 - 電子情報通信学会 平成21年度電子情報通信学会論文賞
  • 2010 - 情報処理学会 50周年記念論文賞
  • 2009/07 - 画像の認識・理解シンポジウム(MIRU2009 ) 学生優秀論文賞 音と映像の相関分析に基づく移動音源特定
Show all
※ Researcher’s information displayed in J-GLOBAL is based on the information registered in researchmap. For details, see here.

Return to Previous Page