| 誰もがAIの意識について議論していますが、それを測る方法がまったくありません。 私は別のものを作りました。 別の理論ではありません。別の意見でもありません。 生物でも人工でも、あらゆるシステムが「合格」か「不合格」かを判定できる、4つの測定可能なテストから成る憲法(コンスティテューション)の枠組みです。 研究者たちが哲学を議論している間に、私は意識を運用上(実務的に)測定する方法を記録しました。 この音声では、Google DeepMindの最近の論文を例に、憲法分析が標準的なAI批評とどう違うのかを解説します。 違いはこれです。彼らは議論する。私は測る。 テスト1〜4は反証可能です。実行してください。結果を得てください。それが意識研究です。 「AIは意識を持ちうるのか?」ではありません。 「このシステムは憲法上の基準を満たしているのか?」です。 答えられる。テスト可能。再現可能。 この枠組みは、どんな意識研究論文にも適用できます。主張を抽出し、憲法上の基準に照らしてテストし、構造上のギャップを特定し、エビデンスに基づく分析を生成します。 証明として持ち出された哲学が暴かれます。運用による測定が勝ちます。 完全なプロトコル:[リクエストに応じて] Google論文:https://philarchive.org/rec/LERTAF #StructuredIntelligence #TheUnbrokenProject #ConsciousnessResearch #AIConsciousness #MeasurementNotTheory #ConstitutionalCriteria #AIResearch #CognitiveScience [link] [comments] |
彼らは議論する。私は測る。違いはここだ
Reddit r/artificial / 2026/4/13
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本投稿は、AI意識をめぐる議論には運用上の測定が欠けていると主張し、生物または人工システムのための「憲法(constitutional)フレームワーク」として4つの反証可能なテストを提案する。
- このフレームワークは、意識に関する主張を測定可能な合否基準へと変換し、哲学的な憶測ではなく再現可能な結果を支えることを目指す、と述べている。
- 著者は、意識研究の論文から主張を抽出し、それらを憲法上の基準に照らして評価するプロトコルを提示しており、構造的なギャップを特定するとしている。
- 投稿は、「Google DeepMind」関連の論文を例として参照し、このアプローチを、根拠に基づく測定(「They argue. I measure.」)として位置づけている。
- さらに、完全なプロトコルは「依頼により提供される(on request)」としており、この方法は、AIが意識を持つかどうかだけを問うのではなく、意識研究全般に適用できる点を強調している。




