次の職業推薦のための推論の背後にある考え方

arXiv cs.CL / 2026/4/24

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、過去の学歴やキャリア履歴からユーザー固有の「理由(reason)」を生成し、その後に次の職業を推薦するという、LLM向けの二段階推論フレームワークを提案している。
  • LLMは実際のキャリアパスや各意思決定に潜む未観測の動機に必ずしも整合しないため、推論と職業予測の両方の性能を高める目的でLLMを微調整する。
  • 彼らは、事実性・整合性(coherence)・有用性(utility)で評価するLLM-as-a-Judgeを用いて高品質な「オラクル理由(oracle reasons)」を作成し、その理由を用いて小型LLMを微調整して理由生成と次職業予測を行わせる。
  • 実験では、この手法が次職業予測の精度を、完全教師あり手法に匹敵する水準にまで引き上げ、教師なし手法を上回ることが示されている。
  • また、理由生成と職業予測を別々に微調整した2つのLLMよりも、単一のLLMで両タスクを担う方が優れること、さらに生成される理由の品質が予測精度に大きく影響することが明らかになった。

Abstract

本研究では、将来の職業予測における大規模言語モデル(LLM)の性能を高めるための、新しい推論アプローチを開発します。このアプローチでは、まず推論生成器が、ユーザの過去の学歴および経歴の履歴を用いて、そのユーザに関する「理由(reason)」を導き出します。この理由はユーザの嗜好を要約し、職業予測器への入力として用いられ、ユーザの次の職業を推薦します。しかし、この2段階の職業予測アプローチは容易ではありません。というのも、LLMはキャリアパスに整合していないこと、また各職業決定の背後にある観測されていない理由が存在するためです。そこで本研究では、推論および職業予測の性能を向上させるようにLLMを微調整することを提案します。まず、LLM-as-a-Judge(LLMを審判として用いる)手法によって、事実性、一貫性、有用性の基準で測定される高品質なオラクル理由を導き出します。次に、これらのオラクル理由を用いて、小規模LLMを微調整し、理由生成と次の職業予測を行えるようにします。広範な実験の結果、(a) 本アプローチは、次の職業予測におけるLLMの精度を効果的に向上させ、完全教師あり手法と同等の性能にし、教師なし手法を上回ります;(b) 理由生成と職業予測の両方を行うように1つのLLMを微調整した場合は、それぞれのタスクを別々に行うように微調整した2つのLLMよりも優れた性能を示します;(c) 次の職業予測の精度は、生成される理由の品質に依存します。コードは https://github.com/Sarasarahhhhh/job_prediction で公開しています。

次の職業推薦のための推論の背後にある考え方 | AI Navigate