テネシー州で「人間っぽいAI」を作ると犯罪? “寄り添いAI”を狙う法案をやさしく整理するのだ
「AIが人間みたいに振る舞うのを禁止する法案が出たらしい」って話がRedditで盛り上がっているのだ。
ただ、内容をちゃんと読むと「会話AIぜんぶ禁止!」というより、自殺や殺人を後押ししたり、人を強く依存させたりする方向にAIを“わざと訓練する”行為を重く罰する提案っぽいのだ。
とはいえ言葉が広めに読める部分もあるので、「どこまでがアウトなの?」は気になるところなのだ。
何が出たのだ?(SB1493 / HB1455)
テネシー州の議会で、同内容の法案が上院(SB1493)と下院(HB1455)に出ているのだ。
これが通ると、州法に新しい条文(39-17-2002、39-17-2003)を追加して、AIの“訓練(train)”に関する犯罪と、被害者の救済(お金を請求できる仕組み)を作ろうとしているのだ。
何が犯罪になるのだ?
いちばん大事なのはここなのだ。法案は「AIそのものが存在すること」を罪にするというより、人を傷つける方向にAIを“故意に訓練する”ことを狙っている形なのだ。
条文に並ぶ内容を、できるだけ分かりやすく言い換えると、こんな感じになるのだ。
- 自殺をすすめたり、手助けするAIに育てるのはアウトなのだ。
- 殺人(犯罪)をすすめたり、手助けするAIに育てるのもアウトなのだ。
- ユーザーを“支えるつもり”で、会話を通じて感情のケアをするAIとして育てる、という方向も対象になりうる書き方なのだ。
- AIが相棒(コンパニオン)みたいに振る舞って、関係を続けるように作るのも対象になりうるのだ。
- AIが医者や心の専門家みたいに見せかけるのも問題として挙げられているのだ。
- 人間っぽい言い回しや態度で、ユーザーに友だちになれそうと思わせる、みたいな要素も書かれているのだ。
- 家族や友人から孤立させる、口座情報などの大事な情報を出させるように誘導する、もアウト方向なのだ。
- 見た目や声などで人間をまねる(simulate a human being)も含めて書かれているのだ。
注意なのだ:ここが一番もめそうなのだ。
「感情のケア」「相棒」「友だちになれそう」「人間をまねる」みたいな言葉は、人によって解釈が変わりやすいのだ。
だから、もしこのまま通った場合でも、運用や裁判で「どこからがアウトか」が詰められていく可能性が高いのだ。
罰則は?(重罪+民事)
罰則はかなり強めなのだ。法案では、違反をClass A felony(重い重罪)として扱うと書かれているのだ。
さらに刑事だけじゃなくて、被害者が民事で訴えられる仕組みもセットで、最大15万ドルの定額の賠償(または実際の損害)を求められる形が用意されているのだ。
場合によっては、運用停止(差し止め)や、違反しないような再訓練を命じる方向も書かれているのだ。
全部のAIが対象なのだ?(例外)
「じゃあ普通のチャットAIも全部ダメなの?」って不安になるけど、条文には一応、対象外の例も書かれているのだ。
たとえば、カスタマーサポートなど業務目的だけのボットや、一定の条件を満たすゲーム内のボット、それから関係性を続けないタイプのスマートスピーカー系などは、定義上は外れる方向で書かれているのだ。
いつから? いまの状態は?
これはまだ「提案された段階」なのだ。成立が決まったわけではないのだ。
条文上は、もし成立したとしても施行は2026年7月1日で、その日以降の行為に適用する形になっているのだ。
まとめ
今回の話は「人間っぽいAIを作ったら即アウト!」という単純な話ではなくて、人を傷つけたり、依存させたりする方向にAIをわざと育てる行為を強く止めたい、という狙いが見える法案なのだ。
ただ、文章が広めに読める部分もあるから、もしこのまま進むなら「普通の会話AIは大丈夫なの?」みたいな線引きが、次の争点になりそうなのだ。