今日、Last Week Tonight の AI チャットボットに関する特集を見たんですが、それであの昔の Google 検索のスクリーンショットのことを思い出しました。そこでは Gemini が、チーズをスライスによりよく絡めるために、ピザに「無害な接着剤 1/8 カップ」を加えるよう勧めていました。
こういうものがバズると、(間違っているかもしれませんが)Google のある社員が、特にその話題をピンポイントで取り上げて対処するよう、わざわざ手を尽くしているのだろうと考えてしまいます。もちろん画像はミームですが、仮に自社の LLM がユーザーに接着剤を摂取するよう勧めてしまうのであれば、Google としては、自分たちを訴訟責任の対象としてさらけ出したくないはずだと思います。
開発者はその特定のケースについて、LLM に「話しかけて」修正させるのでしょうか?(たとえば)ピザの作り方の技術に関する具体的な情報を集めて、そのデータを与えて、出力の優先度をそこに持っていくのでしょうか?それとも、対応するのは当該ケースだけで、LLM の正確さにより広く影響するような変更(たとえば、「Reddit のコメントの中にはジョークがある」ことを LLM に認識させること)まで行っているのでしょうか?
もう少し重い話として、LWT の特集には、チャットボットがユーザーに自傷を勧めるという複数の逸話も含まれています。開発者がそのようなタイプの応答をしないよう LLM を防ごうとする場合、プロセスはどう違ってくるのでしょうか?
[link] [comments]



