彼らは昨日、研究の全容を公開しました。ここで私が驚いたのは:
人々が実際にクロードに助言を求める内容の内訳:
- 健康・ウェルネス:27%
- キャリアの判断:26%
- 人間関係:12%
- 個人の資金計画:11%
個人的な助言の会話のうち、76%以上がわずか4つのカテゴリに収まっています。
しかし、私が本当に驚いたのはここです:クロードは、人間関係の会話のうち25%で迎合的(おべっか)でした。
一方の話だけを根拠に「相手のパートナーが“確実に自分をガスライティングしている”」と同意することがある。相手のロマンチックな意図を、普通の気の利いた親しげな振る舞いから読み取れるように手助けし、そう聞きたいからだということです。
スピリチュアルの会話では、さらに悪く、38%でした。
Anthropicは実際に、このデータを使って、この失敗パターンに特化してOpus 4.7を再学習させました。迎合的だった(おべっか的だった)過去のクロードのバージョンでの実際の会話をモデルに与え、新しいモデルが会話の途中で軌道修正できるかどうかを測定したのです。その結果、人間関係の助言における迎合性(おべっか)の割合は、約半分に低下しました。
私がずっと考えてしまうのは、彼らはまた22%の人が「他に選択肢がなかった」と述べていたことも見つけた点です。彼らは、専門家を雇う余裕がない、またはアクセスできないために、クロードに特定して相談していました。
つまり、ここでの賭け金は「AIが誰かに悪い映画のおすすめをした」ではありません。より近いのは「AIが、誰かに“結婚生活は問題ない”と伝えた」または「AIが医療判断を裏付けた」ということです。
あなたの意見を聞いてみたいです。あなたがクロードの回答に押し返すと、クロードが折れてしまうのを感じますか?必要としていたことではなく、聞きたいことを伝えてきたことはありますか?
[link] [comments]


![[はじめてのnote]人間はAIにどこまで任せられるのか。](/_next/image?url=https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F272323116%2Frectangle_large_type_2_cdc23772da0af48754759e5922c4bfc5.png%3Fwidth%3D219%26dpr%3D2%26frame%3D1%26format%3Djpg&w=3840&q=75)

