ただ好奇心から質問しています。
大規模言語モデル(LLMs)は、訓練データの質に左右されます。例として、コーディングを取り上げてみましょう。攻撃として、これらの大規模言語モデルの訓練データのソースがゴミデータで満たされていたり、故意に低品質なコードで満たされていた場合、これらの最先端モデルには何が起こるのでしょう。実データで訓練されたモデルの精度が高まっているため、旅行業界などの企業を含むますます多くの企業がAIが支配することをますます警戒していると読んでいます。訓練を妨害するためにソースを故意に悪質なデータで満たすとしたらどうなるでしょう。そうした事態を防ぐためのガードレールは何ですか?
[リンク] [コメント]