• こんにちは。

    GW ですね!お出かけ日和になるとうれしいですね! それでは、前回に引き続き、言語処理学会第30回年次大会(NLP2024)KOBE に参加した感想を書いていきたいと思います。

  • 言語処理学会第30回年次大会(NLP2024)KOBE について

言語処理学会第30回年次大会(NLP2024)(https://www.anlp.jp/nlp2024/)が、2024/3/11(月)~15(金)の5日間の日程で開催されました。

昨年と同様に、今年も現地とオンラインでのハイブリッド開催の形式でした。 今年の開催地は神戸国際会議場(https://kobe-cc.jp/ja/)でした。

弊社からそれなりに近いということもあり、1日目は現地参加してみました。 そして、本大会期間中の残りの期間は、弊社の自席からオンライン参加してみました。 2日目から最終日までに行われた、特別招待講演やワークショップなどを中心に、参加した感想をレポートできればと思います。

  • 特別招待講演

3/13(水)の夕方から Kevin Knight 先生の「特別招待講演1:30 Years of Perplexity」を聴講しました。

Kevin Knight 先生自身のこれまでの(個人的なプロジェクトを含む)研究の軌跡を振り返りながら、講演のタイトルにもある通り30年間の Perplexity(※) の歴史を紐解いていくというような内容と理解しました。そして、GPT-4 などの LLM(大規模言語モデル)が登場した今、次に何が待ち受けているのか…、というお話でした。 字幕なしの英語で聴講していたので、少し自信がありませんが…、筆者の理解ではそういう内容だったと思います。

(※) Perplexity(パープレキシティ)というのは、「次にどんな単語が来るか?」に関する概念と言えるでしょうか。 ChatGPT を想像すると分かりやすいですが、ChatGPT が次々に出力してくるテキストが流暢であればあるほど、単語がうまく予測されていると考えられますよね。Perplexity というのは、そういった LLM などの言語モデルの性能を図る指標と考えて良さそうです。

Perplexity の観点からみると、GPT-4 が登場して以来非常に流暢な対話が可能になり、これまでの多くの研究が飲み込まれた、と。そして、2024 年現在においてそのような事実があるとして、悲観する研究者と素晴らしい機会だと捉える研究者がいるだろう、と。

先生のやわらかい口調で講演が進められていき、質疑応答もいくつも飛び交い、オンラインからでも現地会場に楽しい時間が流れていることが感じ取れました。

  • ワークショップ

NLP2024 の最終日である 3/15(金)には、4つのワークショップが開かれました。

筆者はこのうち「日本語言語資源の構築と利用性の向上」を聴講してみました。 とくに 3/15(金)の午前に行われた 関根 聡 先生(理研AIP)の招待講演「LLM構築におけるインストラクションの効果と人間とGPT-4による評価で観察されたもの」は興味をひかれるものがありました。

LLM をファインチューニングする手法としてインストラクションを用いたチューニングが効果的であるという論文を下地に、日本語 LLM でも質の高い応答をしてくれるような LLM を構築しようとするプロジェクトのお話でした。

インストラクションデータ作成のために、実際に数十人ものアノテーターを採用して(!)人の手を使って作成作業を行ったということで、研究や実験の規模の大きさを感じました。「LLM の知識はどこからやってくるんだろう」という疑問や「なぜ LLM はハルシネーションを引き起こすんだろう」といった疑問への重要なヒントが呈されているように思いました。多数の企業ともコラボレーションしており、研究の熱量を感じますね!

  • 来年も楽しみですね

このほか、オンラインでたくさんの発表を聞くことができ、Slack 上の議論もとても参考になりました。 筆者の勉強不足でなかなか理解が及ばないような研究も数多くありましたが、理解できるところからであれば内容も頭に入ってきやすく、とても間口の広い会になっているんだなあと思いました。

来年の言語処理学会(NLP2025)も楽しみですね!