Wikipedia、記事作成におけるAI利用を取り締まりへ

TechCrunch / 2026/3/27

📰 ニュースSignals & Early TrendsIndustry & Market Moves

要点

  • Wikipediaは、編集者が大規模言語モデル(LLM)を用いてWikipediaの記事内容を生成または書き換えることを禁じるよう、ポリシーを更新した。
  • この変更は、(例として、最初から新しい記事を生成することを控えるよう促すなど)より許容的だった従来のガイダンスを明確化し、AIによる文章作成に対する禁止規定をより明確にした。
  • 禁止はAIの関与を完全に排除するものではない。編集者は、自身の文章に対する基本的な校正(copyedits)案をLLMに提示させることはできるが、その変更は人間が確認して判断する必要がある。
  • Wikipediaは、たとえ編集支援の目的で用いられた場合でも、LLMが意味を変えたり、求められた修正の範囲を超えて裏付けのない主張を追加したりし得ることに注意を促している。
  • このポリシーは、40対2で賛成と報じられたコミュニティ投票により承認された。AI利用をめぐる論争が続く一方で、編集者の間では強い支持が示された。

AIが編集やメディアの領域に入り込むにつれ、ウェブサイト各社は、その利用に関する取り決めを確立しようとあたふたしている。今週、Wikipediaは編集者によるAI生成テキストの使用を禁止したが、サイトの編集プロセスからAIを全面的に締め出したわけではない。

最近の方針変更によって、同サイトは「記事コンテンツを生成または書き換えるためにLLMを使用することは禁止される」と明記するようになった。この新しい文言は、LLMに対して「新しいWikipedia記事を最初から作るために使うべきではない」としていた、これまでのより曖昧な言い回しを更新し、かつ明確化するものだ。

Wikipediaの記事内のAIは、同サイトの広大でボランティアによる編集者コミュニティの間で、議論の的になっている。404 Mediaは、新しい方針について、同方針は編集者による投票にかけられ、過半数の支持を獲得した――40対2だった、と報じている。

とはいえ、新しい方針は、いくつかの編集プロセスにおけるAIの継続的な使用の余地も依然として残している。

「編集者は、LLMを使って自分自身の文章に対する 基本的な文の校正案 を提案させることが認められており、人間による確認の後に、そのうちの一部を取り込むこともできます。ただし、LLMが独自に内容を持ち込まないことが条件です」と、新しい方針は述べている。「注意が必要です。LLMは、あなたが求めた以上のことを行い、引用されている 出典によって裏付けられていない ような形にテキストの意味を変えてしまう可能性があるためです。」