大規模なSOTAの独自モデルについて、私が嫌だと思う点がひとつあります。プログラミングが分からない人のためにそれらをより良くするために、完全に自律的に問題を解くよう最適化されているんです。ええ、これが /r/ChatGPT の人たちにとっては、バイナリがないせいでPythonで7zパーサを書こうとしてしまうときにソイポグする原因になっているんでしょうけど、私にとっては逆に「ダメにする」方向です。何かが一致しないと、Qwen3.5-27Bはただ諦めます。適当に雰囲気でコードを書くようなことをしようとしているなら面倒かもしれませんが、私にとってはそれのほうがずっと、ずっと良いです。大学ではGitHub Copilotを使わされているんですが、問題が出るたびに完全に脱線して、どうしようもないデタラメをし始めます。たとえば、壊れた権限(私のせい)を持つファイルに書き込もうとしていて、それがうまくいかず、ずっと失敗し続けていたことがありました。私は見ていましたが、Claudeはその問題を強引に解決するために、無制限で危険なPerlスクリプトを書こうとし始めました。新しいセッションを作ってGPT-5.3 Codexを試したら、Perlスクリプトについても文字通りまったく同じことをしました。Perlスクリプトを書き始めないように止めろと言っても、NodeJSスクリプトを書き始めただけでした。問題は、エージェントが脱線して、ナンセンスにトンネルビジョンしているときに、それがいつも分かりやすいとは限らないことです。だから、注意深く見ていたとしても、膨大な時間を無駄にしてしまう可能性があります。一方で、なにかクソみたいなことが起きたとき、Qwen3.5はそもそも試すことすらせず、ただ諦めて「何らかの理由でファイルに書き込めなかった」と私に告げます。
お願いします、研究ラボの皆さん、これが私の欲しいやつです。もっとこれをお願いします。
[link] [comments]




