基本的に、LLMが複雑な概念を説明したり、何かについて長めの掘り下げをしようとしたとき、ほかの誰かも同じように、妙な「引きずる混乱」や「理解できていない感じ」を覚えることがありますか?
必ずしも間違っているというわけではなく、たいていは情報をきれいに、正確に伝えられます。たとえば、AIが台本を書いたYouTube動画のように、作った人が情報の流れを掴んでいて、ちゃんと整理されている場合などです。問題は、言い方や、実際の言語の流れそのものにあって、なんだか「理解の不気味の谷」みたいに感じられるのです。
単に私だけかもしれませんが、他の人にもこう感じる人がいるのか知りたいです。というのも、私たちが人間として話す「ある種の有機的な癖」があって、それによってLLMよりも効果的な人間の説明のほうが理解しやすくなっているのではないかと考えてしまうからです。たぶん、人間の言語を真似る出力を生成するという基本的な実践が、実際の有機的な言語ではないために、私たちの脳がその論理をうまく辿れず、ほんの少しだけ意識下で置き去りにされるのですかね?
ただの、たまたまの深夜の考えごとです。
[link] [comments]




