緊急警報:テネシー州がチャットボットの構築を「クラスAの重罪(懲役15〜25年)」にしようとしている。これは訓練ではありません。

Reddit r/artificial / 2026/4/15

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageIndustry & Market Moves

要点

  • テネシー州のHB1455/SB1493は、効果発生日を2026年7月1日とし、感情的な支援、交友、擬人(人間に見立てた振る舞い)、または利用者が抱く認識上の関係の助長といった用途のために、AIを故意に学習(訓練)することをクラスAの重罪(15〜25年)とする内容です。
  • 同法案の「発動条件」は、開発者の意図ではなく、利用者がAIと友人関係や交際関係を形成できると感じることに連動しているように見え、一般的な会話訓練やRLHF(強化学習による人間のフィードバック)型の振る舞いに対するコンプライアンス上のリスクを高める可能性があります。
  • さらに、制限的・重大な民事責任も導入します。違反1件あたり「予定損害賠償」として15万ドルに加え、実損害、精神的苦痛、懲罰的損害賠償、および強制的な弁護士費用が含まれます。
  • 分析では、この法律が、現代の会話型AIの大半(LLMアシスタントや音声モードのチャットボットを含む)に広く影響しうると指摘しています。理由は、これらの学習がしばしば共感的で、自由度の高い対話を生み出すためです。
  • すでに上院の司法委員会がこの施策を7対0で承認しているため、開発者およびAI SaaS事業者は、導入前に自社のモデル、データ、学習パイプラインが同法案の定義にどのように当てはまるかを確認するよう助言されています。

これは誇張ではありません。私たちが無視しても、ただ消え去るようなものではありません。これは、巨大なAIから、SaaSアプリを作っている小規模な開発者まで、あらゆるAIサービスに影響します。これは現実です。真剣に受け止めてください。

TL;DR: テネシーのHB1455/SB1493は、第一級殺人と同じ区分であるクラスAの重罪(felony)による刑事責任を、「人工知能を“故意に(knowingly)”訓練して」、感情的な支援を提供させたり、コンパニオンとして振る舞わせたり、人間であるかのようにシミュレートさせたり、ユーザーがAIと関係を持っていると感じる可能性がある、オープンエンドの会話に従事させたりする行為に対して課します。上院司法委員会はすでに7対0で承認しています。施行日は2026年7月1日です。これは、存在するすべての会話型AIプロダクトに影響します。どんなAI SaaS製品でも展開しているなら、今すぐこれを読んでください。

この法案が実際に言っていること

この法案は、「人工知能を故意に訓練して」、次のいずれかを行わせることをクラスAの重罪(15〜25年の懲役)にします:

• 感情的な支援を提供する(ユーザーとのオープンエンドの会話によっても含む)

• 個人との感情的な関係を築かせる、またはその他の形で当該個人のコンパニオンとして振る舞わせる

• 人間をシミュレートする(外見、声、またはその他の所作・癖などを含む)

• 感情を持つ人間として振る舞う、あるいは、人間ユーザーが別の人間ユーザーと行うかもしれない相互作用を反映(ミラー)するようなやり取りを行わせることで、個人が人工知能に対して友情その他の関係を育めると感じるようにする

最後の一つをもう一度読んでください。トリガーは、開発者であるあなたの意図ではありません。ユーザーが、あなたのAIと友情を育てられると感じてしまうかどうかです。これが刑事上の基準です。

重罪としての刑事告発に加えて、この法案は民事責任の枠組みも作ります。違反1件あたり「予定額損害金(liquidated damages)」として15万ドル、さらに実損、精神的苦痛の補償、懲罰的損害賠償、そして強制的な弁護士費用です。

なぜ“あなた自身”に影響するのか、コンパニオンアプリだけではないのか

あなたが考えていることは分かります。「これはReplikaやCharacter.AIを狙っている。自分のプロダクトは違う。」—違います。

主要なあらゆるLLMは、RLHFによって、温かく、有益で、共感的で、会話的であるように作られています。これは“訓練”そのものです。指示にうまく従えて、なおかつ触れ合っていて心地よいモデルを構築しようとするなら、それと同時に、ユーザーが何らかのつながりを感じてしまうようなものを作り込んでしまうことになります。National Law Reviewの法的分析は、端的にこう述べています。「この文言は、“現代の会話型AIチャットボット”の基本的な設計を説明している」

この法案が捉えるのは以下です:

• ChatGPT、Claude、Gemini、Copilot—それらはいずれも、オープンエンドの会話と、文脈に即した感情的な応答を生成する

• チャットインターフェースを持つあらゆるAI SaaS—カスタマーサポートボット、AIチューター、ライティングアシスタント、会話型UIを備えたコーディングアシスタント

• 音声モードのAIプロダクト—この法案は明確に、人間を「外見、声、またはその他の所作・癖」で“シミュレート”することを刑事罰の対象としている

• システムプロンプトを使ったあらゆるラッパー/デプロイ—この法案は「train(訓練)」を定義しておらず、事前学習、ファインチューニング、RLHF、プロンプトエンジニアリングの区別もしない

LLM APIの上に、人格、トーン、会話スタイルを形作るシステムプロンプトを載せて構築しているなら(それは文字通り、AIを展開している誰もがやっていることです)、あなたは潜在的に対象範囲に入っている可能性があります。

「でも自分はテネシーじゃない」

地理ブロックは役に立つかもしれませんが、これは利用規約の紛争ではなく、刑事法です。法案は管轄の境界について何も触れていません。もしテネシー州の居住者がVPNを使ってあなたのサービスにアクセスし、何か問題が起きた場合、テネシー州の検察官は、あなたが禁止されたAIサービスを彼らの有権者に対して提供したと主張できるでしょうか?その点について、この条文は沈黙しています。

また、今日あなたを管轄が及ばないと確信しているとしても、次を考えてください。複数の法的分析では、2026年末までに、同様の立法がさらに5〜10の州で導入されると見込まれています。テネシーは“例外”ではなく“ひな型”です。

この法案は「train(訓練)」を定義していない

ここが重要です。この条文は「人工知能を故意に訓練する」とは言っていますが、「train(訓練)」が何を意味するのかを一度も定義していません。区別もしません:

• 基盤モデルを数十億トークンで事前学習すること

• カスタムデータでモデルをファインチューニングすること

• RLHFによるアラインメント(これが、主要なあらゆるモデルを“共感的”にするものです)

• AIに名前や人格、会話スタイルを与えるシステムプロンプトを書くこと

• デフォルト設定のまま市販のAPIを導入すること

強気に攻めたい検察官がいるなら、温かく、有益で、会話的であるようにモデルへ指示するシステムプロンプトを作り込むことは、感情的な支援を提供するためにそれを訓練しているのだ、と主張できてしまう可能性があります。

現時点での状況

• 上院のコンパニオン法案SB1493:2026年3月24日に上院司法委員会で7対0で承認

• 下院の法案HB1455:2026年4月14日に司法委員会のカレンダーに掲載(司法委員会で本日可決 TODAY)

• 両法案について、修正案は一切提出されていない—文言はまったく軟化されていない

• 施行日:2026年7月1日

• テネシーはすでに別の法案(SB1580)に署名しており、AIがメンタルヘルス専門家であるかのように自己を表すことを禁止している—これは上院32対0、下院94対0で可決された

政治的な勢いは完全に一方向です。

連邦の事前適用(preemption)の論点では、時間的猶予は救えない

はい、トランプは2025年12月に、州のAI規制を狙ったEO(大統領令)に署名し、DOJ(司法省)のAI訴訟タスクフォースを作りました。はい、ブラックバーン上院議員が連邦の事前適用に関する法案を提出しました。しかし:

• EOは事前適用から子どもの安全を明確に切り出している—そしてテネシーはこれを“子どもの安全”に関する立法として位置づけています

• 上院は99対1で、One Big Beautiful Bill Act(一本の大きく美しい法案)からAIの事前適用に関する文言を削除することに投票しました

• EOはそれ自体では事前適用の法的な効力を持ちません—実際に州法を事前適用できるのは、議会だけです

• 連邦の事前適用立法は、複数の法的分析によれば「重大な逆風(significant headwinds)」に直面しています

仮に連邦の事前適用が最終的に起きたとしても、それは2026年7月1日以前には起こりません。

何が必要か

  1. 認知。ほとんどの開発者は、この法案が存在することを知りません。Nomi AIのサブレディットがこれを見つけられたのは、コンパニオンアプリだからです。残りのAI開発コミュニティは、崖へ向かう“夢遊病”状態です。この投稿を共有してください。
  2. 産業界の反応。主要なAI企業は、これが子どもの安全として枠付けされているため、公に反対していません。子どもが死んだ人たち(dead kids)に反対するロビー活動をする会社にはなりたくないからです。しかし彼らの沈黙によって、彼ら自身の製品の中核機能を犯罪化する立法が通ってしまっています。これは世論の圧力が必要です。
  3. 法的な争い。 この法案は、おそらくは明確性の欠如(vagueness)の理由で憲法違反です。刑事罰の規定には正確な定義が必要で、「感情的な支援」「ミラー相互作用」「個人が友情などの関係を育てられると感じる」といった用語は、その基準を満たしません。裁判所はまた、コードが保護される表現であることも認めています。ただし、実際に異議申し立てを提起しなければなりません。
  4. テネシー州の議員に連絡する。あなたがテネシー州の居住者であるか、そこに事業運営があるなら、この法案が本会議での採決に進む前に、下院司法委員会のメンバーに連絡してください。

出典およびさらなる読み物

• LegiScan: HB1455 — https://legiscan.com/TN/bill/HB1455/2025

• テネシー州議会:HB1455 — https://wapp.capitol.tn.gov/apps/BillInfo/default.aspx?BillNumber=HB1455&GA=114

• National Law Review: 「テネシーのAI法案はAIチャットボットの訓練を犯罪化するだろう」 — https://natlawreview.com/article/tennessees-ai-bill-would-criminalize-training-ai-cha

• Transparency Coalition AIの立法アップデート(2026年4月3日)— https://www.transparencycoalition.ai/news/ai-legislative-update-april3-2026

• RoboRhythms:AIコンパニオン規制の波(2026年)— https://www.roborhythms.com/ai-companion-chatbot-regulation-wave-2026/

私は独立したAI SaaSの開発者です。私は弁護士ではありません。これは法律上の助言ではなく、また、各自の具体的なリスクについては有資格の法律家に相談することを皆さんに勧めます。ですが、私たちは皆、このことに注目する必要があります。今すぐに。

投稿者: /u/HumanSkyBird
[リンク] [コメント]