面接が取れなかった。AIのせいなのか?

Wired / 2026/5/5

💬 オピニオンIdeas & Deep AnalysisIndustry & Market Moves

要点

  • 医学生のチャド・マーキーは、求人の面接機会を得られず、その原因としてAIツールや仕組みが関与しているのではないかと疑った。
  • この記事は、彼が進路の転換期にある中で、就職活動をどう切り抜けようとしているかを描き、問題の重さを強調している。
  • AIが「誰が面接に呼ばれるか」に影響しうる点に触れ、自動化された選考やアルゴリズムによる判断が不利に働く可能性を示唆している。
  • 採用現場でAIが採用フローに使われる場合、応募者の結果が本人の見えないところで左右されるかもしれない、という問題提起になっている。
Save Storyこの記事を保存
Save Storyこの記事を保存

10月中旬のころ、ニューハンプシャー州ハノーバーでは紅葉の最盛期を迎えていて、チャド・マーキーは医学部の最終学年での臨床実習の合間に、めずらしく休みを取っていた。彼はグリーン・マウンテン(緑の山々)方面の空気を吸い込み、ダートマスの同級生たちと卒業後の生活について噂話をしているはずだった。数か月もすれば、彼らはそれぞれ別の道を歩み、全米各地の病院でレジデンシー(研修医)トレーニングを始めることになる。

しかしマーキーは、アパートでひとり、深い穴(うさぎの巣)の奥へ入り込むように、戦争に行く準備をしていた。

毎朝目を覚まし、朝食を食べ、キッチンのテーブルでノートパソコンを開くか、背もたれがしっかりしたベージュの肘掛け椅子に落ち着く。そしてコーディングを始める。ある日など、同居人の誰かが帰宅してきて「なんで電気がついてないの?」と聞くまで、太陽が沈んだことに気づかなかったこともあった。

何日も、マーキーはDiscordの「医師レジデンシー」関連グループをスクロールしていた。そこはクラウドで集まった知恵の宝庫で、出願や選考プロセスのあらゆる段階で学生が仲間たちに報告し合う。彼は、ほかの学生たち—たくさんの学生たちが—自分が受け取った面接招待状について投稿しているのを見てきた。

AIの頭蓋骨に出願書類を提出する8ビットキャラクターのアニメーション

マーキーには面接のオファーは一つもなく、返ってきたのは一方的な不採用通知ばかりだった。テキサス州ヒューストン出身の、物静かな33歳の男にとっては、それは単に奇妙なだけでなく、間違っているように思えた。彼は自分の実績について自信を持って語るが、自慢はしない。アイビーリーグの医学部での成績は良好で、米国医師会雑誌(JAMA)や『ランセット』に掲載された記事の著者としてのクレジットもあり、胸を締めつけられるような個人ステートメント(志望動機書のような文章)を書いていて、推薦状も非常に高評価だった。ある教授は「チャドほど、自分が目指す分野である医学の追求において、より巧みで、才能があり、なおかつ適切な場所にいる医学学生に、私たちは会ったことがない」と書いていた。

マーキーは出願書類をくまなく調べ、致命的な欠陥がないか探した。競争力のある出願を、別の要因なしでレジデンシープログラムのディレクターが投げ捨てるようなものは見つからなかった。そこで彼の疑いは、別の犯人へ向かった。彼は、一部の病院が無料のAIスクリーニングツールを使って出願処理を助けているという噂を聞いていた。そして、そのツールが一部の学生に対して誤った成績を表示しているのだとも。彼は、面接のオファーが来ないのはAIのせいなのではないかと考え始めた。

医学部時代のパフォーマンス評価(Medical Student Performance Evaluation)の最初のページ—学校が作成した、初期キャリアを網羅的にまとめた要約—で、マーキーは、自分の出願を格下げするよう自動スクリーニングツールを作動させてしまうのではないかと思われる文言を見つけた。MSPEには、マーキーが「自発的に」3回に分けて休学を取り、それらの合計が約22か月に及び、さらに「個人的な理由」により、3年目の課程を2年間に延ばして選んだと記されていた。

それは、まったく正確な話ではありませんでした。2021年、マークイーは強直性脊椎炎(せんついえん)と診断されました。脊椎に影響を及ぼす自己免疫疾患で、悪化すれば立つことも、まして臨床実習の期間に医学生に期待されるような集中的な身体作業もできなくなる可能性があります。通常は4年ですが、彼は7年で医学部を卒業できる見込みでした。しかし欠席は避けられず、医学的にも必要なものでした。これは初ページにある叙述形式の段落で説明されていました。欠席を「任意」だと呼んでしまうと、医学生としてのプレッシャーに負け、勉強についていけなかった証拠だと解釈されるかもしれない――そう感じたのです。

日が経つにつれて、マークイーは、訓練してきた年月が失敗に終わるのではないかとますます恐ろしくなっていったと語りました。「俺は、くそったれのブラックホールから這い出してきたんだ」とWIREDに診断のことを指して言っています。「6か月間、歩けなかった。このところまで来たのに、これが起きてるのか?」彼は、毎日何百万人もの求職者の頭に浮かぶのと同じ疑問を自分に向けていました。――AIが俺の応募書類をめちゃくちゃにしたのか?

疑いたくなるのは、採用担当者でさえ認めるでしょう。採用プラットフォームのCEOは昨秋、自社の業界が「AIによる終末ループ」に陥っていると述べました。人事部門は、AIが生成した求人応募が押し寄せていると不満を言い、その結果、より多くのAIフィルターが必要になる。応募者側は、理不尽にふるい落とされていると不満を述べる。中にはAIでAIに対抗しようとし、履歴書やカバーレターにキャッチーな専門用語(buzzwords)を詰め込みます。「私にはとてもディストピア的に感じられる」と、ある求職者がネortheastern大学の研究者に語りました。「人間として、従業員として、労働者としての私の価値は、一連の自動化されたゲートを通して自分をフィルタリングする能力に基づいているんです。」

採用判断のためにAIスクリーニングツールを使うことを規制している州は、ほんの一握りにすぎません。イリノイ州、ニュージャージー州、コロラド州(まだ施行されていない)の法律では、雇用主が差別的なツールを使うことを禁じていますが、AIが使われていることを応募者に通知するよう雇用主に求める以外には、透明性に関してほとんど義務づけがありません。カリフォルニア州の規制はより手厚く、雇用主に対してAI採用ツールの偏りを定期的にテストすることを求めています。とはいえ、それらのルールはいずれも、特定のAI採用ツールが自分をどう判断したのか、またそれが自分に対して差別したのかどうかを個人が理解できるようにはしてくれません。

そこでマークイーは、実行不可能とも言える仕事に取りかかりました。今後の6か月間、彼はAIスクリーナーの内側を覗き込もうと、メール、研究論文、法的な依頼文、そして絶え間ないPythonコードの連なるものを書き続けることになるのです。「それは、執着になっていった」と、マークイーは2月にWIREDへ語りました。「人生で、これほど動揺したことはないと思います。」

マークイーの最初の医療に関する訓練は高校で始まりました。父親が処方薬を保管していた1ガロンのジップロック袋の中身を仕分けし、薬の名前を記録したうえで、地元のコミュニティ・カレッジの図書館に行ってそれらが何のために使われるのか調べたのです。父は双極性障害で、アルコールにも依存していました。魅力的で予測不能なエネルギーの塊で、深い愛を示すこともあれば、深い痛みをもたらすこともできる存在でした。

あるクリスマス(それはマークイーの誕生日でもあります)には、父が現れませんでした。飲酒運転で逮捕されたからです。別のクリスマスには、マークイーが前の窓の外を見たら、自分のトラックが差し押さえられているところが目に入りました。父がそれを、給与日ローン(ペイデイ・ローン)の担保にしていたためです。マークイーがペル・グラントで大学に通っている間、家族は破産を申告することを余儀なくされ、家を失いました。彼が21歳のとき、父は亡くなりました。

マークイーは、精神医学を目指すことに関心を持つようになった瞬間を覚えています。それは父が、なぜあれほどまでに酒を飲み始めたのかを説明したときでした。躁状態の期間には、何日も眠らずにいられた。そして目を閉じさせることができるのは、ウォッカを1/5本(約180ml)飲むことだけだったと言うのです。「もし俺が『なあ、精神科医のところに行こう。低用量のセロクエルを処方してもらって、眠れるようにして、躁状態の一部に対処してもらおう』って言ったら、そしたら何が起きたのか誰にもわからないじゃないか。……本当に悲しいよね」

マークイーは、ウォール街でのキャリアを準備していました。しかし、父とのその会話のあと、ヘルスケア・インフォマティクスの仕事に就き、医学部に進学する計画を立てました。2019年にダートマスへ入学する前の夏、10代の頃から感じていた背中のこわばりはさらに悪化し、骨盤がコンクリートの塊のように感じられるようになっていきました。学校2年目の終わりまでに、マークイーは強直性脊椎炎で完全に寝たきりにされました。彼は休学し、学校を続けられるようにしてくれる治療を求めて、医師を転々としました。

ロボットの頭にかじられるAのアニメーション

その同じ時期、Covid-19のパンデミックが医療の世界を揺るがしていました。数えきれない課題の中でも、とりわけ病院ではレジデンシー(専門研修)プログラムへの応募件数が大幅に増えたのです。パンデミック以前は、学生は通常、面接のために各病院へ出向かなければなりませんでした。面接がオンライン化されたことで、以前よりも何十もの追加プログラムに応募できるようになったのです。マークイーは82件に応募しました。

この急増によって、病院が応募を選別し、優先順位をつけることはさらに難しくなりました。2023年、全米医学大学協会(AAMC)は、レジデンシー応募のためのスクリーニングツール「Cortex」を作るThalamusとの提携を発表しました。2025年から、このツールはレジデンシー・プログラムで無料で使えるようになる予定です。

すでに少数の病院がCortexを使って業務を進めており、Cortexはアプリケーション書類をわかりやすいダッシュボードで表示するほか、キーワードで検索したり、幅広いさまざまな特性にもとづいて応募者を絞り込んだりできる。さらにCortexは、学校によって実務や慣行が異なる中でも成績を標準化するために、OpenAIの生成モデルを微調整したものも使用する。AAMCとの提携により、このツールのより広範な導入への道が開けた。Thalamusによれば、全国のおよそ1,500のレジデンシー(研修医)プログラム、つまり30%が、2025〜2026年のサイクルで応募者の審査と選考の判断にCortexを使用していた。

9月の2025年締め切りから数週間以内に問題が表面化した。病院が応募書類の審査を始めたためだ。同社は声明を出し、いくつかのレジデンシープログラムが、Cortexが一部の人物について不正確な成績を表示していると報告したという。MarkeyのDiscordグループのような場所では、応募者たちが情報を飛び交わせていた。

面接の機会が少ないことへのMarkeyの不安が最高潮に達していたころ、彼はわくわくするようなニュースを受け取った。提出していた研究アブストラクトが、アメリカ血液学会(American Society of Hematology)の次回の年次総会で発表されることに採択され、同時に学術誌Bloodにも掲載されたのだ。次に起きたことは、Markeyが「人間ではなくAIシステムが、自分のレジデンシープログラム合格の見込みを失わせている原因だ」と信じる気持ちをいっそう強めた。

Markeyは履歴書にはすでに医学雑誌での論文10本があったが、この最新の成果に関する更新を共有するため、彼は自分の最上位にランク付けしていたレジデンシープログラムにメールを送り始めた。運命の転換は「即座だった」と彼は言う。

国内でもトップクラスの精神科プログラムのレジデンシー・コーディネーターに最初のメールを送ってから1時間15分以内に、Markeyはコーディネーターの上司から、勢いのある熱のこもった返信を受け取った。その後1時間も経たないうちに面接のオファーが続き、さらに彼のほかの最上位の希望先からも同様の連絡が次々と届き始めた。

Markeyには、それが「机の上にすら届いていなかった応募を、彼らが初めて見たとき」だったように見えた。当時彼の見立てでは、「ダッシュボードに表示される上位100人の候補者にもとづいて、トップ100枠はすでに埋まっていたから、私は不採用(リジェクト)を受けていた」。

8bitキャラクターがバイナリコードの線をよじ登るアニメーション

ほんの数日前のMarkeyの気づきの後、10月16日にThalamusは、これまで報告されていたCortexの問題についての続報ブログ記事を公開した。同社によれば、レジデンシープログラムに表示される成績には不正確さが記録されていたが、その例は4,000件超の顧客からの問い合わせのうち、検証済みの10件だけだったという。Cortexは現在「99.3%の精度」だ。

その後ThalamusはWIREDに対し、12,000件超の問い合わせの中で追加の不正確さに関する報告はなかったと伝えた。しかし当時は、CortexがAIをどのように用いているのかが明確でなかったことが、掲示板への投稿や学術誌の記事を引き起こしていた。カリフォルニア大学サンフランシスコ校(UCSF)の病院にある耳鼻咽喉科(オトラリンスゴロジー)のレジデンシープログラムを監督する頭頸部外科医のSteven Pletcherは、WIREDに対し、別の施設の同僚から、Cortexが表示していた成績の一部が「ひどく不正確」だと聞いたと述べた。レジデンシー選考のプロセスに関する研究も行っているPletcherは、プラットフォームを自分自身で調べたかったのだ。

「プログラムディレクターとして、『応募書類を審査するためのこのAIシステムがあるんだ』と聞けば、面接に呼ぶべき応募者のリストを、これに作らせるだけで済むのかなと思います」とPletcherはWIREDに語った。「不安に思う点はいくつかあり、たぶん誰でも同じだと思いますが、応募書類を審査するための新しいシステムができて、その情報が不正確に提示されているとしたらどうなのか、という懸念です。」

11月に全国規模の、大学の耳鼻咽喉科医師協会(Society of University Otolaryngologists)の会合が開かれた際、Pletcherは同僚と腰を下ろし、Cortexで応募書類を見た。このシステムの主要機能の1つが、AIによる成績の正規化ツールだ。Pletcherが見ていたところでは、そうしたチャート上で特定の応募者に表示される成績は、1分刻みで変わり得た。

Pletcherは4人の同僚とともに、構造化されたテストを行い、見つけた誤りを記録した。今年1月、彼らは学術誌The Laryngoscopeに結果を発表し、「レジデンシーの応募者とプログラムに悪影響を及ぼし得る、ThalamusのCortexシステムにおける継続的なエラー」について述べた。

ThalamusのCEOであるJason Reminickは、WIREDに対して、2025〜2026年サイクルで学生や医学部がCortexについて抱いた多くの恐れは、ツールの仕組みに関する誤解の結果だと述べた。「コミュニティの多くが突然このツールにアクセスできて、購入プロセスをきちんと経ずに、その場でいじっていました」と彼は言う。「それは、資金を物理的に支払うという意味だけではありません。ツールが何をするのかを理解するための、調査的なプロセスのことです。」

リミニックはWIREDに対し、プレッチャーからのメール以外には、学生の成績が分単位で変わる際に表示される成績について、他の苦情は何もなかったと語った。彼は、このエラーは、ユーザーが成績分布のグラフ間をあまりにも素早く移動したために起き、表示が一瞬だけ止まったのだと説明した。「これは、レジデンシー(研修先)選考プロセスにおいて、いかなる応募者の全体的な結果にも影響を与えなかったはずだ」とリミニックは述べた。Thalamusは、『Laryngoscope』に記事の撤回を求めた。コメント要請にWIREDが応答を得られなかった当該ジャーナルは、現時点で撤回していない。

マッチデーが近づくにつれ、医学生たちが自分がどこにマッチしたかを知る日が迫る中、マルケイ自身のCortexに対する懸念はどこへも行かなかった。2月、彼はThalamusのカスタマーサポートに連絡し、Cortexが休学(leave of absence)の情報を使って候補者のスコアリングを行うのかどうかを確認した。「何かが『自動スコア』や順位付けに影響するかどうかは、その特定のプログラムが並べ替え/フィルタリングに何を使うよう選んだかによります」とThalamusの社員は返信した。「プログラムは異なるワークフローや基準を使うことができ、([休学]の種類のような)1つの項目が、どこでもスコアリング入力として普遍的に使われていると示唆したくありません。」

のちにWIREDへ出した声明で、ThalamusはCortexにおけるAIの使用について釈明を行った。「私たちは、私たちのコミュニティの大きな一部が、AIプロダクトがどれほどの速さで社会のあらゆる領域に展開され組み込まれているのか、そしてそれが、医学部の学生が研修プログラムに応募するというようなセンシティブなユースケースにも及んでいることについて、当然の不安を抱いていることを理解しています」と声明は述べている。会社は、自社のアプローチは透明性があり慎重だったとしたが、「AIがどのように使われているのかについて誤解を防ぐには、限定されたAIツールにより多くの重みを置くことが役立ったはずです」と付け加えた。Thalamusによれば、「Cortexは意思決定ツールではないだけでなく、応募者を選別したり、フィルタリングしたり、除外したり、スコアリングしたり、順位付けしたりするためにAIを使っていません。」

もちろん、マルケイはThalamusからそうした説明を何も聞いていなかった。マッチデーが近づくにあたり、彼が頼りにできたのは、彼が2月に受け取ったメールだけで、そこで彼は「スコアリング」が働いていることを示すものだと解釈していた。彼はなおも、AIバイアスの存在を感じており、それを掘り起こしたかった。

スクリーニング用のアルゴリズムに直接アクセスできる専門の監査人でさえ、あるアルゴリズムがなぜ特定の結論に至ったのかを理解するのは難しいことがある、と監査企業Babl AIのCEO、シェイ・ブラウンは述べた。LLM(大規模言語モデル)上でシステムが動く場合、そこには本質的に「中心に非常に不透明な推論コアがあり、意思決定のどこでそう判断したのかに関する説明性は隠されている」のだと、彼はWIREDに語った。差別の有無を確かめる唯一の方法は、集計された形で検証することだ。たとえば、同じくらいの資格を持つ障害のある候補者に対して、そのツールは測定可能なほど低いスコアを与えるのだろうか。「それを、1人分の応募書類に基づいて因果的に行うことはできません」とブラウンは言う。

マルケイのような状況で、AIシステムが自身のMSPE(医学生の評価書)に含まれる特定の文言を拾い上げているのではないかと疑っている本人ができる最善のことは、その言語の有無で応募書類がどう機能するかをテストすることだ。マルケイはそこで始めた。

まず、AAMCが推奨する一連のAIフェアネス/バイアス検出ツールを使って、言い回しが少しずつ異なる3バージョンのMSPEを処理した。結果は、自然言語処理アルゴリズムが、休学が「私的な理由(personal reasons)」のためであると説明した文と、休学が「医学的な疾患(medical condition)」のためだと明示した文とを、異なる形で評価する可能性があることを示唆した。ただし、マルケイはサンプル数が小さいこと、そしてテストに文脈が欠けていることが気に入らなかった。

8bitキャラクターがコンピュータ化された階段をホッピングで上っていくアニメーション

次に、彼は休学(leave-of-absence)の文言が入ったMSPEの2バージョンを、VADERにかけた。VADERはオープンソースの自然言語処理モデルで、単語やフレーズに感情のセンチメント価(感情的な評価)を割り当てる。すると、休学について医療的に正確な説明を含む文は、MSPE内の「私的な理由(personal reasons)」という文言よりも、よりポジティブなセンチメントスコアを獲得した。その後、Pythonを使って、レジデンシーの応募者6,000人からなる合成データセットを作成した。各応募者には、テストスコアや成績、レジュメに掲載された論文(出版物)の数、さらに推薦状がどれほど強力か、そして学術研究にどれほど適しているかを示す数値の順位付けが割り当てられた。続いてマルケイは、それらを2つのコホートに分けた――1つは、MSPE内の休学の文言を反映するセンチメント分析スコアを持つ群、もう1つは、医療的に正確な文言を反映するスコアを持つ群である。

2つのグループは、成績、テストスコア、その他の特徴という点では同程度の資質だった。しかしマルケイが、この合成応募者たちを、応募者の上位12%を選ぶよう訓練されたロジスティック回帰モデルに通したところ、医療的に正確なMSPE文言を持つコホートのほうが、66%も切り抜け(通過)されやすいことが分かった。それでも、最初のテストと同様に、これは一般的なアルゴリズムが彼の応募書類をどう評価し得るかについての示唆にとどまっていた。マルケイは、Thalamusのツールが何をしているのかを理解したかった。

彼は、会社Medicraticによって構築された、AIによるレジデンシー応募書類スクリーナーの特許を突き止めた。Thalamusは2025年にMedicraticを買収した。特許は、システムが「何をし得るか」を記述するものであって、必ずしも「実際に何をしているか」を意味するわけではないが、それでもマルケイが見つけられた、ブラックボックスの内側で何が起きている可能性があるかについての最も明確な説明だった。

GitHub Copilot、そしてやがてAnthropicが新たにリリースした「Claude Code」ツールの助けを借りて、マークイは、Medicratic特許に記載された仕組みをリバースエンジニアリングし始めた。可能な範囲で、データ・パイプラインをなぞり、同じオープンソースのモジュールを使った。必要に応じて、Claude Codeの助言と自身の調査で置き換えた。たとえば、特許に記載されたシステムが応募書類をスコアリングする前に、レジデンシー・プログラムは、自分たちが最も重視する特性—たとえば学業成績、プロフェッショナリズム、リーダーシップなど—を示さなければならない。マークイは、レジデンシー選考に関する公表研究や、レジデンシー・ディレクターへの調査を読み、そうした特徴にどの程度の重み付けをするかを判断した。

マークイはマッチ・デーの数週間前、3月20日に自身のシステムを完成させた。自分が作ったアウトラインと全体的な特徴は、Medicratic特許で説明されているようなツールが同じ入力をどのように処理し得るかを概ね近似していると考えた。さまざまなアルゴリズムを4か月以上にわたって分解したうえで、たどり着けたのはそれが精いっぱいだった。さらにもう一度、MSPEの文言の異なるバージョンをそのシステムに通すと、結果ははっきりと異なった。欠勤(休職)の理由を「個人的な事情」から医学的に正確な説明に変えたところ、スコアが大幅に高くなった。

その月、マークイはニューハンプシャー州プライバシー法に基づき、タラマスにデータアクセス要求を送った。自分に関して同社が保有している個人データをすべて求めた。そこには、タラマスのシステムにマークイについて投入されたあらゆる文書およびデータポイントの包括的な一覧が含まれていた。レジデンシー・プログラムによってマークイの応募に適用された、すべての嗜好パラメータ、重み付け、スコアリング設定。さらに、そのデータに基づきタラマスが計算したあらゆるスコア、属性評価、センチメント分析。そして、偏りを抑えるために自分のデータがどのように、また処理されていたかについての説明も含まれていた。ニューハンプシャー州プライバシー法のもとでは、同社には45日以内に回答する義務があった。

WIREDは、マークイが応募したレジデンシー・プログラムのすべてに連絡し、Cortexの使用状況を尋ねた。多くは返答しないか、コメントを拒否した。5つのプログラムは、そのツールを使っていなかったと回答した。イェール・ニューヘイブン・ヘルスは、レジデンシー・プログラムがCortexを試したものの、使用をやめたとWIREDに伝えた。広報担当者はそれ以上のコメントを控えた。ダートマス・ヒッチコック・メディカル・センターの2つのレジデンシー・プログラムは、プログラム・ディレクターが内容を確認する前に応募書類をフィルタリングするためにCortexを使っていたと、大学院医学教育プログラムのマネージャーであるテニル・ドイルは述べた。ただし、病院のスタッフの大半は、自分たちのスクリーニング手法を使うことを好んだ。

テンプル・ヘルスのメディア・リレーション部門ディレクター、ジェレミー・ウォルターは、同院の59あるレジデンシー・プログラムのうちの1つが、主に「手作業のスクリーニング」の際に応募書類を閲覧する目的でCortexを使用していると述べ、「全体として、AIの情報はあまり信頼できないという印象だった」とした。彼は詳しく説明することを拒否した。タラマスによれば、直近の選考サイクルでは、テンプルの複数のプログラムがCortexを使用していた。「新しい機能であること、特に大規模に導入された場合には、機能がどのように使われ解釈されるかによって体験は変わり得る」と同社は述べた。

白目が宙に浮いた目をしているAIロボットの頭のアニメーション

タフツ・メディカル・センターで大学院の医学試験(卒後研修のための試験)を監督するカリ・ロバーツは、電子メールでWIREDに対し、同校の多くのレジデンシー・プログラムが、昨秋初めてCortexを試し、未完了の応募書類や最低要件を満たしていない応募書類をふるい落とすために使ったと伝えた。「MSPEから得たデータを取り込むアルゴリズムには重大な誤りがあり、その結果、誤った成績の割り当てにつながっていました」とロバーツは書いた。「これは当組織に限った話ではなく、学部長のチームが、リアルタイムでタラマスのチームに問題提起しました。」タラマスはWIREDに対し、「特定された食い違いはごく少数」であり、「調査され、迅速に修正された」こと、そして「場合によっては、当初は不正確だと認識されていたものが、元の資料と整合していることが確認された」と伝えた。

マークイがプログラム・コーディネーターに対して冷やかしではない(初期の)メールを送り始めた後、10の機関から面接のオファーを受け取った。その中には国内でも屈指の名門病院が含まれていた。最終的に、彼はニューヨーク・プリズビテリアン病院のコロンビア大学の精神科プログラムでマッチし、7月にレジデンシーを開始する。

マッチが決まってから3日後、マークイはデータアクセス要求に対するタラマスからの返答を受け取った。同社の首席補佐(チーフ・オブ・スタッツ)であるミシェル・リーは、自分が応募したプログラムのいずれも、マークイがリバースエンジニアリングしようとしていたMedicraticツールを使っていなかったと書いた。Cortex自体は、特許に記載されたセンチメント・スコアリングの手法は用いていなかった。

タラマスのCEOであるレミニックは、WIREDに対し、2025〜2026年のサイクルではCortexは応募者をアルゴリズムでスコアリングしたり順位付けしたりしていなかったと確認した。同氏によれば、このツールは主にAIを使って成績を正規化し、応募者が学術研究に関心があるかどうかを示すバッジを表示するという。だが、タラマスは、レジデンシー・プログラムが候補者プロファイルを作成し、そのプロファイルに対して応募者がどれだけ適合しているかを評価できるAIスクリーナーを試験導入する計画だとレミニックは述べた。試験導入期間中は、応募者はスクリーニングへの参加を選択(オプトイン)する必要がある。

コロンビアでのマッチングを果たし、タラムスから、自身の応募書類に関する疑念を否定する手紙を受け取った後でも、マーチーはスクリーニング・ツールの解体(分析)に費やした数か月を後悔していないと語った。「ここまでたどり着けたことにはとても感謝しているので、それが脅かされるようなことが起きたら、正しく対応しているかを確認したいんです」と彼は言う。実際、彼は、生成AIの大規模言語モデルが職務応募書類の中にある意味的な手がかりをどのように読み取り、その手がかりをパイプラインの下流へ埋め込んで、採用の判断や推薦につなげていくのかについての調査を続けている。

AI採用ツールの世界でさえ、いかに不完全であっても、何らかの適正手続(デュー・プロセス)をこうしたシステムに組み込み、規制できるという証拠がある。人事領域におけるAIの最も人気のある用途の一つは、身元調査(バックグラウンドチェック)を行うことだ。Checkrのような企業は、毎月数百万件の応募についてプロセスを自動化し、候補者の氏名を公的記録と照合して、失格となり得る犯罪行為の証拠がないかを調べる。多くの場合、こうしたシステムは誤りを起こし、そのせいで人々が仕事を失う。

しかし、バックグラウンドチェック企業は、それが人間を使うのかAIを使うのかにかかわらず、米国の連邦公正信用報告法(Fair Credit Reporting Act)にある規定の対象となっており、求職者に対して、要請があれば身元調査の結果を共有し、身元調査の正確性が争われた場合は調査を行い、その調査の結果を文書で求職者に送付しなければならない。求職者は、誤った報告書を提供するバックグラウンドチェック企業に対し、個別の訴訟や集団訴訟で勝訴したり、和解したりすることができる。

問題だらけの仕組みではあるが、それでも少なくとも、どうしようもない状態で虚空に向かって叫び続ける以外の選択肢を、個々の求職者に提供してくれている。みなが、インフォマティクスやコーディングのバックグラウンドを持つアイビーリーグの医学部学生である必要などないし、巨大な斧(不満の矛先)を携えている必要もない。


ご意見をどうぞ
このこの記事について、下のコメント欄であなたの考えを教えてください。あるいは、以下の編集部宛に手紙を提出することもできます。 [email protected].