騙されやすい人間に対するフィッシングと同じように——プロンプト・インジェクションAIはここにとどまる
結局のところ、私たちは皆、言語的な意味のプロンプト・トークンを投げて、相手がでたらめを言っていないことを願っているだけではないのでしょうか?
kettle 1年のこの時期です。つまり、「正しい(あるいは間違った)やり方で」訊くことで、よくガードされたはずのAIボットに秘密を吐かせる、また別のプロンプト・インジェクション攻撃が発見されたということです。
考えてみれば、人間とLLMには似た問題があります。どちらも、ずる賢い相手が適切(または不適切)なやり方で頼めば、機微な情報を渡してしまう可能性があるのです。人間を狙う場合はそれをフィッシングと呼びます。そして、ボットに対するプロンプト・インジェクションは、ほぼ同じことです。プロンプト・インジェクションとは要するに、AIに取り込み、解析させる文書やファイルの中に悪意ある指示を埋め込む、あるいは隠すことです。AIは、それらをコンテンツの一部として扱う代わりに、指示を実行してしまいます。
プロンプト・インジェクションについては、話し合うべきことがたくさんあります。これが、フィッシングに似た「AI時代において解けない問題」であることについても含めて、今週の『The Kettle』のエピソードでそれらをすべて取り上げます。司会はBrandon Vigliaroloで、今週はサイバーセキュリティ編集のJessica Lyonsと、シニア・リポーターのTom Claburnが加わります。
『The Kettle』は こちら で聴けます。さらに Spotify と Apple Music でも配信されています。 ®




