毎回モデルを読み込むことで、AIシステムの振る舞いを時間を通じて行動的に一貫させる、永続的でモデルに依存しないテキストベースの層(モデルはその都度読み込む)を実際に定義することは可能なのでしょうか?単なる典型的なシステムプロンプトではなく、システムが衝突をどう解決するか、何を優先するか、コンテキストのドリフト、矛盾する指示、あるいはプロンプトインジェクションのような状況でも、決定をどう行うかを制約する、より構造化されたものです。
今のところ、一貫性のほとんどは学習やモデルそのものによって生まれているように感じます。そこで、こうした別の層が実際にはうまく機能しないことには、根本的な理由があるのかどうか気になっています。
[リンク] [コメント]




