Rchr
J-GLOBAL ID:201701002273755938   Update date: Dec. 10, 2024

Arimoto Yoshiko

アリモト ヨシコ | Arimoto Yoshiko
Affiliation and department:
Job title: Professor
Homepage URL  (1): https://mac-lab.org
Research field  (5): Intelligent informatics ,  Human interfaces and interactions ,  Perceptual information processing ,  Cognitive sciences ,  Entertainment and game informatics
Research theme for competitive and other funds  (9):
  • 2022 - 2025 Everyday conversation speech synthesis
  • 2022 - 2025 Speech-laughの発生機序の解明
  • 2022 - 2023 感情情報を利用した表現豊かな笑い声・叫び声合成
  • 2019 - 2022 An Exploratory Study of Tradition and Performance in Bunraku
  • 2017 - 2021 感情の連続的な変化を推定するリアルタイムマルチモーダル感情認識システムの構築
Show all
Papers (32):
  • Yoshiko Arimoto, Dan Oishi, Minato Okubo. A comparison between crowdsourcing and in-person listening tests on emotion rating for spontaneous screams and shouts. Acoustical Science and Technology. 2025
  • Yoshiko Arimoto, Yasuo Horiuchi, Sumio Ohno. Determining the base frequency of the F0 contour generation model for the diverse expression of speech. Acoustical Science and Technology. 2024. 46. 1
  • Ryo Setoguchi, Yoshiko Arimoto. Acoustical analysis of the initial phones in speech-laugh. Interspeech 2024. 2024. 3170-3174
  • Takuto Matsuda, Yoshiko Arimoto. Acoustic differences between laughter and screams in spontaneous dialog. Acoustical Science and Technology. 2024. 45. 3. 135-146
  • Yoshiko Arimoto, Yasuo Horiuchi, Sumio Ohno. Determining the base frequency of the <i>F</i><sub>0</sub> contour generation model for the diverse expression of speech. Acoustical Science and Technology. 2024
more...
MISC (62):
  • 白鳥恵大, 有本泰子. 話者変換された叫び声に対する話者類似性評価. 情報処理学会 第262回自然言語処理・第154回音声言語情報処理合同研究発表会. 2024
  • 有本泰子, 橋本直樹, 細田明宏. 文楽人形遣いの協調動作におけるホドの解明に向けた映像アノテーション分析. 電子情報通信学会技術研究報告. 2024. 124. 161. 108-113
  • 木澤妃名子, 有本泰子. 対話相手の笑い声に誘発された共起笑い時の生理反応の分析. 電子情報通信学会技術研究報告. 2024. 124. 161. 55-60
  • 岩立直也, 有本泰子. 次話者指定の有無を区別するTRPを利用した3人会話場面の話者交替予測モデル. 人工知能学会言語・音声理解と対話処理研究会(SIG-SLUD)第100回研究会. 2024
  • Dan Oishi, Minato Okubo, Yoshiko Arimoto. Crowdsourced emotional dimension evaluation for spontaneous scream and shout. 2024
more...
Lectures and oral presentations  (7):
  • 情動発声研究のその先に: 笑い声・叫び声の認識・合成,そしてインタラクション
    (日本音響学会2023年秋季研究発表会講演論文集 2023)
  • オンライン時代の感情コミュニケーション
    (第12回産業日本語研究会・シンポジウム 2021)
  • 表現豊かな音声に対する感情の理解
    (一般社団法人電子情報技術産業協会;JEITA)IT;話し方種別ガイドライン講演会 2019)
  • Challenges of Building an Authentic Emotional Speech Corpus of Spontaneous Japanese Dialog
    (Special speech session in The International Conference on Language Resources and Evaluation (LREC2018) 2018)
  • 感情音声コーパスの構築と利用:いかにして生の感情を対象に研究を行うか
    (音声資源活用シンポジウム2017 2017)
more...
Works (1):
  • Online gaming voice chat corpus with emotional label (OGVC)
    Yoshiko Arimoto 2013 -
Professional career (1):
  • 博士(工学)
Work history (9):
  • 2024/04 - 現在 Chiba Institute of Technology Department of Computer Science, Faculty of innovative Information Science Professor
  • 2019/04 - 2024/03 Chiba Institute of Technology Faculty of Information and Computer Science Associate Professor
  • 2018/04 - 2022/05 RIKEN Center for Brain Science Visiting Researcher
  • 2017/04 - 2019/03 Teikyo University
  • 2015/04 - 2018/03 国立研究開発法人理化学研究所 脳機能総合研究センター 客員研究員
Show all
Committee career (4):
  • 2024/04 - 現在 電子情報通信学会ヴァーバル・ノンヴァーバル・コミュニケーション研究会 運営委員
  • 2023/04 - 現在 ヒューマンインタフェース学会論文誌編集委員会 編集委員
  • 2020/04 - 2024/03 電子情報通信学会ヴァーバル・ノンヴァーバル・コミュニケーション研究会 副委員長
  • 2015/08 - 2024/03 電子情報通信学会ヴァーバル・ノンヴァーバル・コミュニケーション研究会 幹事
Awards (4):
  • 2024/06 - 人工知能学会 人工知能学会 2023年度研究会優秀賞 次話者指定の有無を区別するTRPを利用した3人会話場面の話者交替予測モデル
  • 2020/12 - 電子情報通信学会HCGシンポジウム2020 電子情報通信学会HCGシンポジウム2020 特集テーマセッション賞 現実世界における無意識な感情表出に対して生成されるゲームイベントの効果
  • 2019/08 - 情報処理学会 情報教育シンポジウム 情報処理学会情報教育シンポジウム 優秀論文賞 汎用的能力評価のためのルーブリックとチェックリストの提案
  • 2016/12 - IEICE HCGシンポジウム2016 電子情報通信学会HCGシンポジウム2016 優秀インタラクティブ発表賞 「クロスコーパスラベリングによる感情空間への感情カテゴリのマッピング -音声知覚および音響分析による検討-」
Association Membership(s) (4):
人工知能学会 ,  International Speech Communication Association (ISCA) ,  THE PHONETIC SOCIETY OF JAPAN ,  ACOUSTICAL SOCIETY OF JAPAN
※ Researcher’s information displayed in J-GLOBAL is based on the information registered in researchmap. For details, see here.

Return to Previous Page