| こんにちは、私はAli Suat、15歳で、約4年間、深層学習と自律システムの研究に積極的に取り組んできました。今日は、ローカルなハードウェア上で実行しているマルチエージェント推論プロジェクト:AI-Court Supreme をご紹介します。 このプロジェクトの目的は、ローカルの大規模言語モデル、Llama 3.1 8B が、エージェントアーキテクチャ内で複雑な法的・技術的プロセスをどれだけ一貫して処理できるかを評価することでした。CrewAIフレームワークを用いた階層的ワークフローを確立しました。 システムの動作方法: 文脈に基づく協働: 私は3つの独立した自律エージェントを定義しました:首席検察官、弁護人、そして主席審判長。 検察官が起訴状を作成すると、弁護士はこの出力を文脈として受け取り、意味分析を通じて、アルゴリズムの逸脱や意図の欠如といった技術的・法的な抜け穴を特定し、反論を作り出します。 最終段階で、裁判長エージェントは両当事者のデータを統合して論理的推論を行い、最終判決を言い渡します。 このような高い推論能力を示す8Bパラメータのモデルは、特に尋問のシミュレーションにおいて、私の期待を大幅に上回る結果を生み出しました。この完全にローカルなオフラインのエージェントワークフローに対する皆さんのご意見は、私にとって非常に価値があります。 ハードウェア構成: GPU: NVIDIA RTX 5070 Ti CPU: AMD Ryzen 7 7800X3D メモリ: 32GB DDR5 皆さんの開発提案や技術的な質問を歓迎します。コメント欄でブレインストーミングしましょう! [リンク] [コメント] |
Llama 3.1 8B と CrewAI を用いて、私の RTX 5070 Ti 上で100% ローカルに動作する自律的なAI裁判所を構築しました。エージェント同士は文脈に基づく協力を通じて互いに議論します。
Reddit r/LocalLLaMA / 2026/3/23
📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage
要点
- 著者は、Llama 3.1 8B と CrewAI を用いて RTX 5070 Ti 上で動作する完全にオフラインかつローカルなAI裁判所システム AI-Court Supreme を実演し、マルチエージェント推論を実行します。
- このシステムは、首席検事、被告側弁護人、首席裁判長の3つのエージェントを使用し、文脈に基づいて協力して起訴状を作成し、法的抜け穴を特定し、判決を総合します。
- このシステムはクラウドアクセスなしで消費者向けハードウェア(Ryzen 7 7800X3D、32GB RAM)だけで完全に動作することを示し、複雑なAIワークフローのローカル展開の実現可能性を強調します。
- 作成者はフィードバックと提案を募集し、結果を8Bパラメータのモデルとしては驚くほど強力だと位置づけ、コミュニティの議論を求めています。