2025年11月4日~11月9日に中国・蘇州で開催された自然言語処理のトップカンファレンス The 2025 Conference on Empirical Methods in Natural Language Processing (EMNLP 2025) にて当研究室から田尻が本会議に採択され,ポスター発表を行いました.また,斉・上原・樋口が聴講で参加しました.
今回は中国・蘇州の蘇州国際博覧中心 (Suzhou International Expo Centre) で開催されました.採択論文数はMain (本会議) が1,811(longが1,668,shortが143)件,Findingsが1,417件でした.採択率はMainが22.16% (1181/8174),Fingingsが17.34% (1417/81) となりました.
First Author の人数はアジアが最も多く,Main で 960 名,Findings で 808 名と他地域を大きく上回っていました.次に多いのは北アメリカで,Main が 509 名,Findings が 347 名となっています.その次にヨーロッパが続き、Main が 297 名、Findings が 223 名でした.アジア、北米、欧州に比べると、その他の地域は大幅に少なく,オセアニアは Main 28 名,Findings 23 名,ユーラシア地域は Main 13 名,Findings 10 名 と,かなり小規模です.さらに南アメリカは Main 4 名,Findings 3 名 と最も少ない結果でした.
提出数・採択数が多かった分野としては,「Resources and Evaluation」,「NLP Applications」,「Multimodality」,「Interpretability」,「Safety and Alignment」の5領域が特に目立っていました.
田尻は,推薦対話システムにおける推薦アイテム決定プロセスで用いる生成文の品質向上を目的とした研究について,ポスター発表を行いました.本研究では,対話履歴からLLMによって対話要約文とアイテム推薦文を生成し,これら2つの文章に基づいてユーザへ提示すべき推薦アイテムを決定します.
本研究では,対話要約文および推薦文に推薦に必要な情報を適切に反映させ,最終的な推薦性能を向上させるためのDPO(Direct Preference Optimization)を用いた学習手法を提案しました. この手法では,DPO学習に必要な選好データを人手による介入なしで自動生成する仕組みを組み込んでおり,効率的な学習過程を実現しています.
初めての国際会議だったため,最初はかなり緊張していましたが,いざセッションが始まると,優しく声をかけてくださる研究者の方が多く,非常に気持ちよく発表を行うことができました. (田尻)
Manato Tajiri and Michimasa Inaba. Refining Text Generation for Realistic Conversational Recommendation via Direct Preference Optimization. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing (EMNLP 2025), pp. 28628–28649, 2025.
Hao Xu, Jiacheng Liu, Yejin Choi, Noah A. Smith, and Hannaneh Hajishirzi. Infini-gram mini: Exact n-gram Search at the Internet Scale with FM-Index. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 24955–24980, 2025
本論文は,FM-index に基づく高圧縮・高速検索システム INFINI-GRAM MINI を提案し,従来手法より圧倒的に軽量な(コーパスの 44%)インデックス構築を実現しています.さらに,83TBのインターネットテキストを単一のCPUノードで99日でインデックス化することに成功しています.本研究によりLLM評価で重要となるベンチマーク汚染の大規模分析等が容易に可能になり,主要ベンチマークに深刻な汚染が存在することを明らかにするなど,訓練データ理解と評価信頼性向上に寄与しています. (田尻)
Hy Dang, Tianyi Liu, Zhuofeng Wu, Jingfeng Yang, Haoming Jiang, Tao Yang, Pei Chen, Zhengyang Wang, Helen Wang, Huasheng Li, Bing Yin, and Meng Jiang. 2025. Improving Large Language Models Function Calling and Interpretability via Guided-Structured Templates. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 24437–24453, 2025
本論文は,LLM がFunction Callingで誤ったパラメータ生成やツール選択を行う根本原因として,自由形式CoTの曖昧さと手順不足を指摘し,段階的に推論を誘導する構造化テンプレートを提案しています.さらにテンプレートに従った推論過程を大規模に合成したToolGT データセットを構築し,モデルをファインチューニングにすることによりBFCLv2とNexusにおいて性能の改善が確認されました.これにより,LLMのFunction Callingの正確性・透明性・堅牢性 が大幅に向上することを示しました. (田尻)
Jihyun Lee, Yejin Min, San Kim, Yejin Jeon, Sung Jun Yang, Hyounghun Kim, and Gary Lee. PanicToCalm: A Proactive Counseling Agent for Panic Attacks. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 12853–12885, 2025.
この研究では,パニック発作のような 強い苦痛を伴う緊急状況への即時支援を目的に,AIカウンセリングモデルPACERを開発しました.倫理的制約で不足していたデータを補うため,PFA(心理的応急処置)の原則に基づいた対話データセット PACE を構築し,さらにシミュレーションを用いて 共感と指示性のバランスをとるよう最適化 しました.また,危機特有の対応方略を評価できるフレームワークPANICEVALを提案し,実験では一般的なモデルやCBTモデル,そしてGPT-4oと比較しました.その結果,PACERは危機介入スキルとクライアントの感情改善の両面で,継続して優れた性能を示しました. (斉)
Seungjong Sun, Seo Yeon Baek, and Jang Hyun Kim. Personality Vector: Modulating Personality of Large Language Models by Model Merging. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 24667–24688, 2025.
この研究では,特定の性格特性に関してファインチューニングされたモデルの重みから,事前学習済みモデルの重みを差し引くことで性格ベクトルを構築する手法を提案しています.あらかじめ性格ベクトルを構築することで,追加の学習を行わずにLLMに性格特性を与えることが可能になります.実験では,複数の性格ベクトルを組み合わせてLLMに性格特性を与えることができることが確認されました.また,複数のドメインの下流タスク用のモデルに性格ベクトルを転移することが可能であることも示されました. (上原)
Zitao Fang, Guodong Du, Shuyang Yu, Yifei Guo, Yiwei Zhang, Yiyao Cao, Jing Li, Ho-Kin Tang, and Sim Kuan Goh. To See a World in a Spark of Neuron: Disentangling Multi-Task Interference for Training-Free Model Merging. In Proceedings of the 2025 Conference on Empirical Methods in Natural Language Processing, pages 15731–15751, 2025.
この研究では,異なるタスクで個別にファインチューニングされた複数のモデルを1つに統合する際に,それぞれのタスクの性能が低下してしまう「タスク干渉」という問題に対する改善手法を提案しています.著者らは,事前学習済みモデルと固有タスクでのファインチューニング後のモデルの重みの差分をニューロンのメカニズムに基づき解析し,2つの直行する空間に分解しました.分析の結果,この2つの空間は入力感度とタスク適応性を制御する 2つの補完的かつ直交するニューロン・サブスペースであると見なせることがわかりました.実験ではこの性質を利用したトレーニングフリーなモデル統合手法によって,タスク間の干渉を抑えつつ性能を維持した統合が可能になることが示されています. (樋口)
今回の学会参加を通じて,自然言語処理に関する最先端の研究に直接触れることができ,非常に多くの刺激を受けました.特にポスターセッションでは,海外の研究者と積極的に議論する機会があり,自分の研究に対して様々な視点からフィードバックを得られたことは,とても貴重な経験でした.
一方で,英語でのコミュニケーションに苦戦する場面も多く,思い描いていたようには説明しきれないもどかしさも感じました.しかし,相手の研究者の方々は何度も簡単な言い回しで伝えてくださったり,私の拙い英語を真剣に理解しようとしてくださったりと,前向きにコミュニケーションをとることができました.
今回の学会参加は,研究への向き合い方を見直す良い機会となり,英語で伝える力の必要性も改めて感じました.この学びを糧に,今後の研究活動に一層励んでいきたいと思います. (田尻)