私はADHDを持っており、しばらくの間、LLMs(大規模言語モデル)とのペアプログラミングをしています。ある時点で、彼らが失敗する方法が妙に見覚えがあると気づきました。自信を持ってでっち上げ、会話の途中で文脈を失い、天才的な横方向の結びつきの後に基本的な逐次論理を台無しにする。それはただ...私の火曜日です。
それで認知科学の文献を調べました。独立した研究グループによって裏付けられた六つの類似点を見つけましたが、彼らはこの結びつきを直接見ていませんでした。
連想処理。ADHDではデフォルトモードネットワークがタスク陽性ネットワークへと流入します(Castellanos ら, JAMA Psychiatry)。トランスフォーマーのアテンションは、強い関連性ゲートがなく、すべてのトークン間で重み付けされた連想を計算します。どちらも創造的な結びつきが高く、ランダムで関連性の低い混入を引き起こす連想機械です。
作話。ADHDを持つ成人は、真実のように感じられる偽の記憶を有意に多く生み出します(Soliman & Elfar, 2017, d=0.69+)。2023年のPLOS Digital Health論文は、LLMのエラーは幻覚ではなく作話と呼ぶべきだと主張します。2024年のACL論文は、LLMの作話が人間の作話と測定可能な特徴を共有していることを発見しました(Millward ら)。どちらのシステムも嘘をついているわけではありません。どちらも、もっともらしいパターン補完的なもので欠点を埋めます。
コンテキストウィンドウは作業記憶です。作業記憶の欠陥は、ADHDの最も再現性の高い所見のうちの一つです(メタ分析全体でd=0.69-0.74)。LLMのコンテキストウィンドウは文字通り作業記憶です。固定サイズで、末尾から情報が落ち、以前の情報があいまいになります。そして、補償戦略はお互いに鏡像のように一致します。我々はプランナーや外部システムを使用します。LLMsはシステムプロンプト、 CLAUDE.md ファイル、RAGを使用します。同じ機能です。
パターン完成は精度より重要。ADHDは発散思考が優れていて収束思考が劣ることを意味します(Hoogman ら, 2020)。LLMsも同様です。パターンマッチングと創造的な完成には長けている一方、正確な多段階推論は苦手です。両方とも「パターンに適合するもの」を最適化しており、「順序において論理的に正しいもの」を最適化していません。
構造を力の乗数として。構造化された環境はADHDのパフォーマンスを著しく向上させます(Frontiers in Psychology, 2025)。LLMsも同様です。明確な制約を持つ良いシステムプロンプトは出力を劇的に改善します。構造を取り除くと、支離滅裂で焦点の定まらないゴミのような出力になります。両方のシステムで同じように機能します。
興味主導の持続性とスレッド継続性。1つのスレッドに対して持続的に集中して取り組むと、両ケースとも品質が累積します。スレッドを途中で断つとすべてを失います。深い集中を妨げる人と同じで、どこまで進んでいたか分からなくなります。
実践的な結論として、ADHDの脳を何年も管理してきた人々は、AIとの協働にとって重要なスキルをすでに身につけています。外部の足場、パターン優先の思考、ストレスを感じずに反復すること。
詳しく知りたい人のために、引用をすべて含む完全な研究を thecreativeprogrammer.dev にまとめました。
あなたの経験はどうですか?LLMsの失敗とあなた自身の思考の働きとの間に類推できる点に気づきましたか?
[リンク] [コメント]