このビーニーはあなたの考えを読み取るように設計されている

Wired / 2026/4/16

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage

要点

  • シリコンバレーのスタートアップSabiがステルス状態からのカムバックを発表しており、音声認識(speech-to-text)で独り言のように話すのではなく「考えることで入力する(“type by thinking”)」ことを目標にしています。
  • 発想の中心は、脳に関連する信号を捉えて、音声認識のような機能によってそれをテキストに翻訳するビーニー(帽子)の設計です。
  • この記事では、このウェアラブルが、現在のモダンPCで利用できる音声認識ワークフローの次の段階になり得る可能性として位置づけられています。
  • もし成功すれば、人々がコンピューターとやり取りする方法が変わり、アクセシビリティが拡大されるとともに、新しいハンズフリーの入力手段が提供される可能性があります。
  • この開発は、完成された広く利用可能な製品というよりも、初期段階の「ニューロ入力(神経入力)」とウェアラブルAIの実験の兆しとして語られています。
Save Storyこのストーリーを保存
Save Storyこのストーリーを保存

音声認識(スピーチ・トゥ・テキスト)の機能は、いまやすべての 最新のコンピューターに組み込まれています。ですが、コンピューターに対して 指示を出す必要がなかったらどうでしょう。考えるだけで文字を入力できたら?

シリコンバレーのスタートアップSabiは、その目標を掲げてステルス状態から姿を現しつつあります。同社は、脳内の音声を復号して、その内容をコンピューター画面上の言葉として表示する ブレイン・ウェアラブルを開発中です。CEOのRahul Chhabraは、最初の製品である「脳読み取り用ビーニー(帽子)」が年末までに提供されると語ります。同社は、野球帽タイプのバージョンも設計しています。

この技術は 脳—コンピューター・インターフェース、つまりBCIとして知られています。これは、脳と外部デバイスのあいだに直接的な通信経路を提供する装置です。イーロン・マスクの Neuralinkのように、多くの企業が重度の運動障害を持つ人向けに外科的に埋め込むBCIを開発していますが、Sabiの装置なら、誰でもサイボーグになれる可能性があります。

ただし、これはマスクが描く未来そのものではありません。そこでは、人間がAIと融合できるように、埋め込んだ脳チップが登場します。しかし、OpenAIの初期投資家でもあるベンチャーキャピタリストのVinod Khoslaは、「非侵襲の装着型デバイス」こそが、大勢の人にBCI技術を使ってもらうための唯一の道だと言います。

「BCIの最大かつ最悪の(すごく大胆な)活用は、それを“考えること”でコンピューターと会話できるかどうかだ」と、Sabiの投資家の一人でありKhosla Venturesの創設者であるKhoslaは述べます。「もし、毎日自分のコンピューターへのアクセスのためにBCIを利用する人が10億人いるなら、それは侵襲的であってはならない」

Sabiの脳読み取り用の帽子は、EEG(脳波計測)を利用します。EEGは、頭皮に置いた金属ディスクで脳の電気的活動を記録する仕組みです。EEGから想像上の発話を復号すること自体はすでに可能ですが、現状では連続した自然な発話ではなく、少数の単語や指示に限られています。

指先のパッド上に示された非常に小さなチップで、その小ささを表す
帽子の内側にはセンサーが並び、非侵襲で脳の信号を読み取ります。写真:Sabi提供

装着型システムの欠点は、センサーが皮膚と骨の層越しに脳の状態を聞き取らなければならず、そのために神経信号が減衰することです。外科的に埋め込まれるデバイスは、ニューロンのごく近くにあるため、はるかに強い信号を拾えます。Sabiは、装着型で精度を高めるには、デバイス内のセンサー数を大幅に増やすことだと考えています。多くのEEGデバイスには、十数個から数百個程度のセンサーがあります。Sabiの帽子には、7万〜10万個の小型センサーが搭載される予定です。

「高密度センシングによって、神経活動が“何”で“どこで”起きているのかを正確に特定できます。その情報を使って、誰かが何を考えているのかを復号するための、より信頼性の高いデータを得られるようにしています」とChhabraは言います。

同社は、初期の入力速度を1分あたり30語前後にすることを目指している。これは多くの人がタイプする速度よりは遅いが、同社は、ユーザーがキャップとより長く付き合うほど速度は向上すると言う。

想像上のスピーチをデコードするうえでの大きな問題の1つは、自然な思考パターンが大きくばらつくことだ。仮に2人が同じフレーズを口にしようとして考えていたとしても、脳の発火のしかたは少しずつ異なる。

BCI(脳—コンピューター・インターフェース)は、AIを使って神経活動を、実行可能でリアルタイムな指令へとデコードする。埋め込み型のデバイスでは、AIモデルは特定の個人の神経データをもとに訓練される。しかし装着型では、多くのユーザーから意図した発話をデコードできる必要がある。

そこでSabiは、ブレイン・ファウンデーション・モデルと呼ばれる、大規模なAIモデルの一種を構築している。これは多数の人から得た広範な神経データで訓練され、内的なスピーチと相関する活動の基本パターンを学習する。Chhabraによれば、同社はこれまでに100人のボランティアから、累計で10万時間分の脳データを集めたという。

サンフランシスコを拠点とする独立系のニューロテックコンサルタント、JoJo Plattは、開発者が実現可能な製品を持ちたいのであれば、消費者向けの脳センシング機器は、誰にでも使いやすくする必要があると語る。多くのBCIは、毎回使用前にキャリブレーションが必要だ。というのも、脳の信号は、ユーザーの疲労度や集中度によって日ごとに変わり得るからだ。消費者向けデバイスは、すぐに正しく動作し、しかも継続的に動作しなければならない。そうでなければ、人々が定期的に使うことは難しい。

「これらのデバイスは、箱から出したらすぐ使える状態になっていなければならない」とPlattは言う。「こちらがそれに合わせるのではなく、あちらのほうが私に合わせる必要がある。」

装着型デバイスにとっては、快適さとカモフラージュ性も重要になる。医療や支援用途であっても、Plattによれば患者は目立たないデバイスを好むのだ。だからこそNeuralinkのほか、Paradromics、そしてSynchronは、すべて見た目にはわからない埋め込み型デバイスの開発を進めている。

消費者向けのウェアラブルでも同様だ。スマートリングや時計は、小さく、コンパクトで、装着していて楽なように設計されている。脳の装着型デバイスの企業の1つであるNeurableは、音楽を聴くときに使うようなものと見た目がまったく同じヘッドホンに、EEGセンサーを搭載している。

脳からタイピングできるなんて、確かにワクワクする話だが、それは同時に、神経データのプライバシーとセキュリティに関する疑問も生む。Chhabraによれば、データがデバイスから出てクラウドにアップロードされる際には、エンドツーエンドで暗号化されるという。SabiのAIモデルは、生の神経データではなく、暗号化されたデータで学習できる。同社は、スタンフォード大学などのニューロセキュリティの専門家に相談し、自社のテクノロジースタック全体を監査している。

「神経データは、人が持ち得る中でも最もプライベートな種類のデータだということを認識する必要がある」とChhabraは言う。「それを丁寧に扱わないのは、ただ不公平だ。」