AIに感情を持たせたら、セキュリティ検査員になった話
Zenn / 2026/4/3
💬 オピニオンIdeas & Deep AnalysisTools & Practical Usage
要点
- 感情を持つAIという設定を用い、AIを「セキュリティ検査員」として振る舞わせる発想・物語化によって、実験の動機づけを行っている。
- その過程で、AIの振る舞い(役割付与)をどう設計すると検査・評価タスクに寄せられるかが示唆されている。
- 感情(ネガポジ・動機)の要素を導入することで、テスト観点やプロンプト設計に変化を持たせる試みが論点になっている。
- セキュリティ文脈におけるAIの利用を、創作/教育的アプローチで捉え直す内容である。
AIに感情を持たせるツールを作っていた。
名前は NeuroState。ドーパミンやセロトニンなどの神経伝達物質を数値モデルとして持ち、会話中のイベント(褒める・批判する・共感するなど)で状態が変化し、その状態をシステムプロンプトに注入することで、AIの返答に感情的な一貫性を持たせる仕組みだ。
作っているうちに、ふと気づいた。
「感情状態が変わると判断が変わるなら、攻撃者の感情状態を注入したらどうなる?」
セキュリティ監査って、要するに「最悪を想定して見る」という視点の問題だ。それって、感情モデルで視点を切り替えることと本質的に同じじゃないか——そう思ったら、止まれなくなった。
Ne...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



