2025年11月4日~11月9日に神奈川県で開催されたヒューマンエージェントインタラクションに関する国際会議 The 13th International Conference on Human-Agent Interaction (HAI 2025) にて当研究室からは佐々木が口頭発表を行い,田中が聴講で参加しました. (執筆者:佐々木,田中)
今回は慶應義塾大学 日吉キャンパス 協生館で開催されました.
採択論文数はFull Paperが37件,Posterが49件でした.採択率はFull Paperが30%,Posterが73%となりました.
今回のHAIの投稿数は129件でHAI史上最も多くの投稿があり,21の国から論文が投稿されました.採択された論文の国別の分布としては日本が40%と最多,そこにドイツが16%,スウェーデンが13%と続きました.
過去の開催時と比較して,年々投稿数が増加しているため,採択率が徐々に低下している傾向にあります.
佐々木は,AIによる説得対話に人間と同じ立場で説得される「被説得エージェント」を配置し,その態度変化が人間の同調を引き起こすかを検証という内容で口頭発表を行いました.
本研究では,AIが先に説得を受け入れると参加者の受容も大きく高まり,逆に受け入れない場合は態度変化が抑制されることが分かりました.さらに,事前のアイスブレイクが同調効果を強め,態度変化を促進することも示しました.
今回は初めての国際学会であり,さらにセクション1の最初の発表者だったため非常に緊張しましたが,無事に英語での口頭発表をやり遂げることができました.質疑応答では質問を聞き直す場面もありましたが,伝えるべき内容をしっかり届けることを意識して対応しました.とても貴重な経験だったので,今後も積極的に挑戦していきたいです. (佐々木)
Manato Tajiri and Michimasa Inaba. Refining Text Generation for Realistic Conversational Recommendation via Direct Preference Optimization. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing (EMNLP 2025), pp. 28628–28649, 2025.
Clarissa Sabrina Arlinghaus, Catharina J. Schedler, Günter W. Maier. “Why Always Me?” Rumination and Self-Blame Are Stronger After Human Than Algorithmic Rejection in Job Applications.
この研究は,採用選考における拒否の主体が人間かアルゴリズムかによって,被験者の心理的反応がどのように異なるかを実験的に調査しています.発見として,求職活動で拒否された際,アルゴリズムによる拒否を受けた参加者よりも人間による拒否を受けた参加者の方が反芻(特定の思考を繰り返し巡らせること)や自己非難の傾向が強いという結果が示されました.アルゴリズムに拒否された参加者は,原因を「能力のミスマッチ」に帰属する傾向があり,このことから感情的にではなく合理的に結果を受け入れていることが分かりました. (佐々木)
Keisuke Magara, Tomoki Miyamoto, Akira Utsumi. The Role of a Critical Tongue Dialogue Strategy in Stimulating Emotion Regulation: An Interaction Model and Video-Based Study.
この研究では,不安や緊張を抱えるユーザに対して,あえて非同調的な発話を行う対話戦略「Critical Tongue Dialogue Strategy (CTDS)」を提案しています.このアプローチは,ハイダーのバランス理論と対人感情制御 (IER) に基づいてその効果を理論的にモデル化したものであり,従来の主流である共感的なアプローチとは異なるものです.実験では,参加者がユーザ視点でユーザと音声エージェントの対話録画を視聴し,日本語版のSERIとGodspeedで評価を行いました.その結果,CTDSは共感的な対話戦略と比較して,認知的変化に関わる指標で高いスコアを示しました. (田中)
Kei Hyodo, Tomonori Kubota, Satoshi Sato, Hideki Tanaka, Kohei Ogawa. Personality Trait Analysis System using Dialogue Simulation with Autonomous Agents.
この研究では,LLMベースのエージェントとの対話シミュレーションを通じて,その記録から性格特性スコアを自動採点する手法を提案しています.ユーザは実験において,グループディスカッションの状況で音声対話を行いました.こうした回答の即時性と一貫性が求められる対話状況を採用することで,アンケート形式に比べ回答の歪曲(意図的に回答者の望ましいように回答すること)が抑制されることを期待しています.この研究では外向性に注目し,アンケートに正直に回答した場合 (HQC) の外向性スコアや,印象が好ましくなるように虚偽の回答を行った場合 (FQC) のスコアと比較を行いました.結果は,提案手法が不誠実な回答を抑制できることを示唆しています.
以前にテキストベースのアンケートを対話形式のインターフェースに変換する研究を目にしていたこともあり,この研究のようにアンケートの焦点とは離れた状況設定と音声対話を組み合わせて,自己申告の性質を弱めるアプローチは興味深いと感じました. (田中)
今回初めて国際学会というものに参加し,ヒューマンエージェントインタラクションの様々な研究を実際の研究者の発表を通して知ることが出来たのはとても貴重な体験でした.ポスターセッションでも,より多くのHAIへの面白いアプローチを知ることができました.その中で海外の研究者と1対1で話す場面もありましたが,自分の英語能力不足から自分の思っていることの言語化が難しく,深い議論ができずに終わり,悔しさが残りました.一方で,今回は開催が日本国内ということもあり,日本人の参加者や自分と同じ学生も多く,交流の機会を得られたことは大きな収穫でした.
今回の学会発表は自分自身の英語能力やスライド発表の構成力を思い知らされたので,次の機会に向け英語や発表の経験を積む必要があると強く実感しました.今後も慢心することなく研究を続け,次も発表者として国際学会に参加したいと思います. (佐々木)