カイル・キングズベリーの引用

Simon Willison's Blog / 2026/4/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本記事は、機械学習システムにおける新たな説明責任の役割について、カイル・キングズベリーの発言を引用して集めたものであり、社内の審査担当者や外部の法的責任を負う人員などを含む。
  • 一部の人々が「肉の盾(meat shields)」として機能し、ML/LLMの成果について、システムがほとんど自動化されているにもかかわらず、形式的または非形式的に責任を負わされることがあると論じている。
  • 引用では、例として、Metaが自動化されたモデレーション判断に対して人間のレビュアーを使っていることや、裁判でLLMが生成した「嘘」を提出した弁護士が罰せられる可能性が挙げられている。
  • また、組織が、MLシステムが「不正に振る舞った」場合に備えて、第三者の下請け業者を使って非難(責任)を引き受けさせることもあり、そのことでリスクを主要な開発者や運用者から遠ざける可能性があると示唆している。
提供: Teleport — Teleport Beamsで数秒でエージェントをあなたのインフラに接続します。内蔵されたアイデンティティ。秘密情報なし。 早期アクセスを受け取る

2026年4月15日

私たちは(おそらく明示的ではないにせよ)何人かの人が雇用されるのを見ることになると思います。つまりミートシールドです。監督下にあるMLシステムに対して責任を負う人たちです。この責任は、メタが自動化されたモデレーション・システムの判断を人間に確認させるといったように、純粋に社内的なものにとどまるかもしれません。あるいは、弁護士が裁判所にLLMの嘘を提出したことで罰せられるといったように、外部に及ぶ場合もあります。データ保護責任者のように、正式に責任が制度化されることもあり得ます。バスカリアのように、第三者の下請け業者を抱えておくことは、システム全体が誤動作したときに、その業者を「切り捨てる」ことができるので便利かもしれません。

Kyle KingsburyThe Future of Everything is Lies, I Guess: New Jobs

2026年4月15日 15th April 2026 の15:36に投稿

これはSimon Willisonが収集した引用で、2026年4月15日に投稿されました。

careers 74 ai 1962 ai-ethics 290 kyle-kingsbury 3