結論が出た:AIは選挙と人間関係に害を及ぼすだろう

The Register / 2026/4/14

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 新たなスタンフォードのAI研究レポートは、危険なAIの利用慣行が、選挙や個人的な関係といった重大性の高い領域での被害をさらに悪化させうると警告している。
  • このレポートは、AIの社会的影響に関して広く人々が抱いている不安がある一方で、危険またはリスクの高い行動がいまも続いているという証拠も示している。
  • また、中国がAI能力において米国に「追いつきつつある」と報じられるなど、地政学的な力関係の変化にも言及している。
  • 記事は、これらの知見を、現実世界での被害を減らすために、セキュリティ、ガバナンス、責任ある導入に早急に取り組むべきだという切迫した呼びかけとして位置づけている。

投票の結果が出た:AIは選挙と人間関係を傷つける

スタンフォードのAI研究者による最新レポート:危険な利用慣行が判明、影響への不安が広範に、そして中国が米国に追いつきつつある

Tue 14 Apr 2026 // 00:05 UTC

人工知能は、パーソナルコンピュータやインターネットよりも速いペースで大量導入を果たし、わずか3年で人口の53%に到達しました。それに対応して、危険なAIインシデントの件数も増えています。そして、専門家も一般の人々も、その影響が「選挙」と「人間関係」という2つの領域で感じられるだろうと考えています。

2026 AI Index Report [PDF]、スタンフォード大学の人間中心のAI研究所(HAI)によるこの報告書では、「責任あるAIは、AIの能力の伸びに追いつけていません。安全性のベンチマークが遅れ、インシデントは急増しています」と述べています。

記録されたAIインシデント――AIインシデントデータベースが定義する「人工知能システムの導入によって、現実世界で実現した害、または害の寸前(ニアミス)」――は、同報告書によると、2025年に362件に達しました。2024年の233件から増加しています。

この結果は、AI導入の増加とも一致しています。組織の88%がAIを利用していると回答しており、大学生の約80%もそれを認めています。

この調査結果の一つの可能な説明として、AIモデルがプログラミングにかなり長けてきていることが挙げられます。SWE-benchテストで、現実のGitHubの課題に取り組む際の成功スコアが、1年の間に60%からほぼ100%へと上昇しています。

特定のベンチマークでの高いスコアは全てを物語りません。なぜなら、すべてのAIモデルがそれぞれ異なる領域で不足しているからです。モデルが「確信がないこと」をただ推測で埋め合わせるのではなく認めるかどうかを評価するよう設計されたAA-Omniscient Indexでは、26のモデルにおけるハルシネーション率は22%から94%の範囲でばらついていました。

弁護士がAIモデルを使って「2ダースを超える偽の引用や、事実の誤認」を作り、そしてそれを米国第6巡回控訴裁判所が指摘する──これは、スタンフォードのHAI研究者らが「責任あるAI」が使用の広がりに追いついていないと言うときに念頭にある事例の一つです。

また、AIスーパインテリジェンスについてのあらゆる議論があるにもかかわらず、AIは「時間を告げる」面で人間に遅れをとっています。OpenAIのGPT-5.4 Highは、2026年3月時点で、アナログ時計を正しく読めたのはわずか50.6%でした。「専門外の人間」がおよそ90%だったのに比べると大きな差です。これはClockBenchベンチマーク[PDF]で説明されています。

ロボットはさらに能力が低く、BEHAVIOR-1Kシミュレーション・ベンチマークに基づけば、家庭内のタスクの成功率はわずか12%にとどまっています。

HAIレポートは423ページに及び、スタンフォードのチームによる、AI研究の現状とそれが社会に与える影響のまとめです。ChatGPTやClaudeの助けがあり、さらにGoogle、OpenAIなどからの資金支援も受けて、人間の研究者によって執筆されたこのレポートの知見は、「責任あるAI」の不足といった希少性の話にとどまらず、AI業界のさまざまな側面に踏み込んでいます。

世論の観点では、このレポートは「AIの専門家と米国の一般市民は、AIの未来についてほぼ何も一致していない。ただし、それが選挙や個人的な関係を傷つけることになる、という点だけは別だ」としています。

米国の一般市民の64%は、今後20年のあいだにAIが人間に提供される仕事の数を減らすと見込んでいます。一方で5%は、AIがより多くの雇用を生み出すと考えています。専門家では、39%が仕事は減ると予想し、19%が雇用は増えると見積もっています。ただし専門家は、生成AIが2030年までに米国の労働時間の80%に寄与すると考えています。これは、一般市民が予測している10%に比べるとかなり高い見通しです。

米国の回答者のうち、AIを責任ある形で規制するために政府を信用すると答えたのはわずか31%で、どの国よりも低い水準です。OpenAIが、AIモデルが壊滅的な害を引き起こした場合にAI企業の賠償責任を制限するよう求めるイリノイ州の法案を後押ししており、またホワイトハウスが「業界に優しいAI政策」を追求していることを考えると、米国民が政府の“自分たちを守ることへの関心”に疑念を抱いても不思議ではありません。

HAIレポートは、中国のAIモデルが米国のAIモデルとの性能差を埋めてきたと指摘しています。2026年3月時点で、米国のトップモデルであるClaude Opus 4.6は、Arenaベンチマークで1,503点を獲得しました。ByteDanceのDola-Seed Preview(1,464点)を上回るのはわずか2.7ポイントです。そのリードは2026年4月9日時点で縮んでいたとされ、Claude Opus 4.6 Thinkingは1,548点で続き、Z.aiのGLM-5.1が1,530点であとに続きます。

米国はAI投資で引き続きリードしており、2025年には2,859億ドルに達したとされています。それは、中国に投じられた124億ドルの約23倍です。ただしレポートは、政府資金については過小に数えた可能性があると注意しています。それでもなお、米国は技術人材を失っています。「2017年以降、AI研究者や開発者が米国に移住する人数は89%減少しており、直近1年だけでも80%の減少だ」とレポートは述べています。®

これらに近いテーマ
×

さらに絞り込まれたトピック

さらに詳しく

さらに詳しく

これらに似たもの
×

より絞り込まれたトピック

より広いトピック

情報提供しよう

ニュースをお送りください