ここで重大な質問です。過去1年間、そこそこ多い入力データに基づいて読みたい架空の小説を選ぶのを手伝ってもらうために、さまざまなLLMを試してきました。これはLLMモデルにうまく適した作業だと思ったのですが、提案にはいつも失望させられます。依頼した内容とまったく違うか、存在しないはずの書名や説明をでっち上げた(ハルシネーションの)ものになってしまうのです。
ここでの大きな問題は、学習が非常に人気のある本に対して行われているため、LLMがそれらを結果として出してしまうことなのでしょうか?一度、頭の中に「自分が読みたい正確な本」のイメージを先に置いて検証してみました(この場合は、Laurence Dahners の Bonesetter シリーズでした)。私は、この本で見つけたいと思っている特徴を8〜10個(先史時代の要素、成長物語、コンピテンス・ポルノなど)挙げましたが、10件の提案を求めたときに、LLMはこの本をまったく提案しませんでした。もちろん『Clan of the Cave bear』は出してきます。でも、その後は『Dungeon Crawler Carl』とか『The Martian』みたいな、まったく話が飛んだ提案ばかりでした。
こういう種類の作業は、そもそもLLMの得意分野ではないのでしょうか?それとも、私が何か間違ったやり方をしているのでしょうか?
[link] [comments]

