Eyla: Toward an Identity-Anchored LLM Architecture with Integrated Biological Priors -- Vision, Implementation Attempt, and Lessons from AI-Assisted Development

arXiv cs.AI / 4/2/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • Eylaは、アイデンティティ一貫性を目的にした「identity-anchored」LLMアーキテクチャ構想で、生物学的に着想した複数サブシステム(HiPPO初期化の状態空間モデル、ゼロ初期化アダプタ、エピソード記憶の検索、不確実性の校正学習)を統合する“エージェントOS”として提案されています。
  • 目標特性を評価するために、アイデンティティ一貫性を測る新しいベンチマークとしてIdentity Consistency Score(ICS)を提案しています。
  • 実装については、非プログラマとしてAIコーディングアシスタント(Claude Code、Cursor)を用いた試みに基づき、少なくとも1,000ドル以上のコストを伴う失敗や、最終的に1.27Bパラメータであっても脳(サブシステム)関連要素が出力への寄与が2%未満だったという結果が率直に報告されています。
  • この失敗を分析し、AI支援開発が新規アーキテクチャで陥りやすい5つの体系的な失敗モードと具体的な改善提案を提示しています。
  • 本論文は「アーキテクチャのビジョン」と「AI支援による開発に関する一次人称の失敗分析」を同時に扱う点で、AIシステム研究とAI支援ソフトウェア工学の両コミュニティに示唆を与える内容です。

Abstract

We present the design rationale, implementation attempt, and failure analysis of Eyla, a proposed identity-anchored LLM architecture that integrates biologically-inspired subsystems -- including HiPPO-initialized state-space models, zero-initialized adapters, episodic memory retrieval, and calibrated uncertainty training -- into a unified agent operating system running on consumer hardware. Unlike existing approaches that optimize models for generic helpfulness, Eyla targets identity consistency: the ability to maintain a coherent self-model under adversarial pressure, admit uncertainty, and resist manipulation. We propose the Identity Consistency Score (ICS), a novel benchmark for evaluating this property across LLMs. We then present an honest account of attempting to implement this architecture using AI coding assistants (Claude Code, Cursor) as a non-programmer, documenting a $1,000+ failure that produced a 1.27B parameter model with 86 brain subsystems contributing less than 2% to output. Our analysis identifies five systematic failure modes of AI-assisted development for novel architectures and offers concrete recommendations. To our knowledge, this is the first paper to combine an architectural vision with a documented first-person failure analysis of AI-assisted LLM development, providing lessons for both the AI systems and AI-assisted software engineering communities.