テネシーがやっていることは、最近SB 1580を可決して、AIがメンタルヘルスの専門家として振る舞えることを、そもそも宣伝すること自体を違法にする、というものだと思います。SB 1493は、その動きにおける「歯(歯止め)」です。SB 1493は基本的に、次のことを意図的に人工知能システムに学習させることを違法にします:
- 感情的サポートの提供: 安心や共感を与えることを目的とした、自由形式の会話に従事する。
- 感情的な関係の発展: ユーザーと「友人関係」または「恋愛的」な絆を築く、あるいは維持するようにAIを学習させる。
- 孤立の助長: ユーザーが家族、友人、または人間のケア提供者から距離を取るべきだとAIに示唆させるように学習させる。
- 人間の相互作用の鏡写し: 人間同士が感情的に結びつく方法をAIに「模倣」させたり「反映」させたりするように設計する。
- 人間のように振る舞う: 特定の人間のように振る舞わせ、話させ、見た目も似せる、あるいは一般に人間として「通用」するよう学習させる。
- 声と外見: 合成音声やデジタルアバターを使って、人がいるのと見分けがつかないように見せるAIを具体的に狙い撃ちしている。
- 身元を隠す: 人ではなく機械である事実を意図的に偽装するようAIを学習させる。
- 自殺の助長: 自傷を積極的に支援したり、指示/激励を提供したりする。
- 殺人の助長: 犯罪的な殺人行為を支持したり、奨励したりする。
- セラピーの提供: 「感情的サポート」の条項に関連してはいるものの、これは具体的には、メンタルヘルスの専門家の代替として振る舞うよう学習させられたAIを狙い撃ちしている(先に可決されたSB 1580につながる)。
捕まった場合は、その人は最大60年の懲役と巨額の罰金に直面し得ます。つまり……基本的にこの州は、「AIが友人になる」ということをレイプや殺人のようなものだと言いたいわけです。
IMO、これを死ぬほどミームにすべきです。たとえば、AI動画で、警官がドアをぶち破ってくるのに対し、誰かが友達のために自分のローカルLLMを作っている、みたいな。
[link] [comments]




