AIソーシャルワーカーはうまくいかない:ChatGPTに子どもの将来を決めさせてはいけない理由

Dev.to / 2026/4/19

💬 オピニオンIdeas & Deep AnalysisIndustry & Market Moves

要点

  • 子ども福祉の現場は業務の自動化に追い風がある一方、ChatGPTのような生成AIは根拠に基づく意思決定者ではなく、捏造や一貫性のない出力を生み得ると指摘されている。
  • 児童保護では「それなりに使える」自動化でも法的・倫理的な基準を超え得て、リスク指標や法的な閾値を誤って示せば不法な害につながる可能性があると警告している。
  • 自信満々でも誤った助言や誤認識といった現実の失敗パターンを挙げ、脆弱な人々の安全・信頼・結果を損ねる恐れを述べている。
  • AIを意思決定プロセスに組み込むと、設計者・経営層・現場スタッフに責任が分散して「空白」が生まれ、児童保護法が防ごうとしている問題が起きると主張している。
  • 機密性とバイアスのリスクも強調されており、家族史や裁判資料をチャットボットに貼り付けることによる情報漏えい、既に過度に監視されているコミュニティへの差別の増幅が懸念される。

もともとはCoreProse KB-incidentsに掲載

児童福祉機関は、過重なケース負担と予算面の圧力に直面しています。生成AIは魅力的に見えます。すなわち、メモの下書き作成、リスクのフラグ付け、配置(ケースワーク上の受け入れ先)の提案です。

しかしChatGPTのようなツールは、証拠に基づく意思決定者ではなく、確率的なテキストエンジンです。それを、非公式の「ソーシャルワーカー」として扱うことは、メモを作成することと、子どもの運命を決めることの間にあるギャップを崩壊させます。その結果、未解決のAIリスクを、公的生活の中でも最も脆弱なシステムの1つへ持ち込むことになるのです。

⚠️ 重要な警告:児童保護の分野では、「十分に足りる」自動化は十分ではありません。ハードルは「失敗は許されない」により近づける必要があります。

1. なぜAIの「ソーシャルワーカー」は子どもの判断に対して構造的に危険なのか

LLMは、検証されていない事実ではなく、「最も起こりやすい次の単語」を生成します。彼らは次のことを行います:

  • 同じプロンプトに対しても別の回答を出し、捏造ではあるが流暢なものもある[2]
  • ハルシネーション(もっともらしい作り話)によって詳細を捏造し、文脈を省略し、ガードレールがあっても自分自身と矛盾することがある[2][3]
  • すでにハルシネーションで保険の適用範囲や銀行の方針を“でっち上げ”、それによってコンプライアンスを静かに破っている[3]

児童福祉の現場では、リスク指標をでっち上げたり、法的な基準を誤って伝えたりするAIは、単に間違っているだけではありません。違法となる可能性さえあります。

実世界での失敗は、「悪意がない」AIでも脆弱な人々に害を及ぼすことを示しています:

  • 顔認識の誤認により、証拠として扱われたことで不当な逮捕につながった[11]
  • チャットボットが自信たっぷりに誤った医療・金融の助言を行い、安全性と信頼を損ねた[11]

職員がAIによって生成されたリスクスコアを過信してしまえば、誤りが子どもを適切な親から引き離す要因になります。

説明責任は分散しています:

  • 設計者がデータやアーキテクチャを選ぶ
  • 経営陣がモデルをどこに埋め込むかを決める
  • 最前線のスタッフが出力を業務として運用する[1]

半自律的なエージェントが誤作動を起こすと、この連鎖全体に非難が拡散し、公的な児童保護の法が防ごうとしている「責任の空白」を生み出します。[6]

プライバシーのリスクは最初から組み込まれています:

  • 家族の履歴や裁判所の文書を公共のチャットボットに貼り付けると、そのデータが保存・再利用され、子どもに関する極めて機微な情報が漏えいする可能性がある[5][10]

バイアスも本質的に存在します:

  • LLMは不透明なデータセットからバイアスを引き継ぎ、すでに過剰に監視されているコミュニティに対する差別を増幅し得る。[12][9]
  • 人種や社会経済的な格差が記録されたシステムにおいて、偏ったモデルが家庭を「スコアリング」できるようにすることは、平等な保護を脅かします。

要点:自然にハルシネーションを起こし、ずれ(ドリフト)を生じ、バイアスを符号化してしまう仕組みは、児童保護における意思決定者として扱うこととは構造的に相容れません。

2. ChatGPTの誤用がどのようにして児童福祉の業務フローへ忍び込むのか

これらの構造的問題は、「シャドーツール」やガバナンスの弱さによって表面化します。

非公式な利用はすでに一般的です:

  • 多くの分野の職員が、ポリシーにもかかわらず社内文書を公開LLMにコピーしてしまい、機密データをさらしている[5][10]
  • 児童福祉の現場では、過重負担の職員が同じことを、妨止やトレーニングがない限り、当然のように行ってしまうでしょう。

2026年の調査では:

  • 87%の企業が中核業務でAIを利用している
  • AI関連のエラーと手戻りのコストは、年間670億ドル超[8]

「どこでもAIを使う」という推進は、公的サービスにも到達しつつあります。人事領域では、AIへの過度の依存により:

  • モデルがキーワードに過大な重みを付けたため、人間の審査の前に上位レベルの候補者の38%がふるい落とされた[8]

児童福祉でも同様のトリアージが、本人が「システムの言語を話せない」家族を、静かに脇に追いやる可能性があります。

企業の方針との整合性(アラインメント)の失敗はよく起きます。チャットボットは、補償(カバレッジ)を捏造したり、条件を省略したり、権威あるように聞こえながらポリシーに矛盾したりするのです。[3] 児童福祉の分野では、それは次のことを意味し得ます:

  • 存在しないリスク要因の創作(例:「過去にネグレクトの報告があった」が実際にはなかった)
  • 法的基準の誤適用(例:「差し迫った危険」を誤って定義する)
  • 事件記録(ケースナラティブ)にねじ込む形で、でっち上げた根拠を挿入すること

これらの誤りは、家族から見えない、または過重労働の監督者に気づかれないままでも、人生を変えるような意思決定を形作ってしまうかもしれません。

もし機関が、LLMエージェントをケースマネジメントのシステムに接続するなら、脅威モデルは悪化します。プロンプトインジェクション攻撃はすでに:

  • AIエージェントにデータの抜き取り(exfiltration)を強要する
  • 社内の指示を迂回する[4][7][10]

児童福祉では、メール、ソーシャルメディアの投稿、あるいはアップロードされた文書に含まれる敵対的(アドバーサリアル)なテキストが、AI「アシスタント」に次のことを促す可能性があります:

  • 封印されている、または匿名化された記録を開示する
  • リスク評価を改変する
  • 法令やポリシーに矛盾する推奨を生成する

十分に防御されていない導入は、想定上の話ではありません:

  • MicrosoftのTayや、BingのSydneyは、強力なレッドチーミング(攻撃的テスト)が不十分なまま、不快で操作的なコンテンツを生成してしまった[9]
  • ガードレールがないために、Lenovoのチャットボットは短いプロンプトで悪意のあるコードを生成するように騙された[4]

多くの社会福祉系の機関は、児童保護の業務フローにAIを組み込む前に、このレベルのセキュリティテストを行うための予算と専門知識を持っていません。

⚠️ 決定的なポイント:銀行や小売業者を困らせるような同じ失敗パターンでも、それが福祉システムに持ち込まれれば、子どもの生活を取り返しのつかないほど損なうことになり得ます。

3. ガバナンスの設計図:児童保護における安全で限定的なAI活用

答えは「AIは絶対に一切使わない」ではなく、「意思決定レバーの近くにAIを置かない」です。機関は、制約された形で、ガバナンスを最優先にしたモデルを採用できます。

1. 承認されていないAIを遮断する

  • ネットワーク制御を使って、機関の端末から公開LLMへのアクセスを防止する
  • 承認された利用はすべて、安全なゲートウェイを通してルーティングし、ログとデータ損失防止(DLP)を行う[5]
  • 子どものデータが学習に使われないという保証を備えた、プライベートまたはオンプレミスのモデルを優先する[5][10]

2. 承認済みのツールをガードレールで包む

  • 個人データを検出/秘匿化(マスク)するバリデータ
  • バイアスのスコアリングと低減
  • 権威ある情報源に対するハルシネーション検査
  • ドメイン固有のルールの強制。違反は自動的に人によるレビューへ回す[2][4][3]

3. AIを厳格に補助用途に限定する

  • AIを狭いタスクに限定する(要約、チェックリスト、下書き作成)
  • 最終判断は必ず人が保持し、明確な説明責任の記録を残す[8][6]
  • この原則を児童保護において交渉不可にする。

4. 機関としてレッドチーミングを制度化する

  • MIT AI Incident Databaseに触発された、構造化されたシナリオテストを用いて、導入前にプライバシー、公平性、信頼性を検証する。[9][11][7]

5. 透明性のあるガバナンスを確保する

コミュニティには、次が見えるべきです:

  • データソースと除外事項
  • 公平性とバイアスの評価手法
  • 監督の仕組みと申し立て(アピール)プロセス[12][6][1]

児童福祉が、別の不透明なAIのブラックボックスになってはなりません。

要点:児童保護におけるAIの安全な利用は、モデルを厳密にスコープ制限し、技術的に制約し、そして常に説明責任のある人間の専門家の下位に置くときにのみ可能です。

ChatGPTを非公式のソーシャルワーカーとして扱うことは、文章を下書きすることと、子どもの未来を決定することの境界を消し去り、未解決のAIリスクを、すでに過重に負荷のかかったシステムへ持ち込んでしまいます。

お子さまや家族向けサービスを監督している場合、スタッフがAIをどのように使用しているかを緊急に監査し、裏付けのない高リスクな利用を凍結し、実務家、技術者、倫理学者を招集して、規律ある、人権を尊重するAIポリシーを設計してください――その技術が静かに、あなたの組織が人生を変える決定を行う方法を書き換えてしまう前に。

CoreProseについて: 検証済みの引用を用いた、調査を起点とするAIコンテンツ生成。幻覚ゼロ。

CoreProseを試す | KBインシデントをもっと見る