AI Navigate

[リリース] Apex-1: RTX 5060 Ti 16GBでローカル学習された350Mの小型LLM

Reddit r/LocalLLaMA / 2026/3/11

📰 ニュースTools & Practical UsageModels & Research

要点

  • Apex-1は、ハードウェア能力が限られたエッジデバイスでのスピードと効率を重視した、軽量の3億5千万パラメータ言語モデルです。
  • モデルアーキテクチャはnanoGPTとTransformerに基づき、FineWeb-Eduデータセットのサブセットで事前学習され、その後Alpaca-Cleanedデータで微調整され、命令追従能力が向上しています。
  • Apex-1はONNXおよびPyTorchフォーマットに対応し、大規模LLMを扱えないモバイルやウェブ環境にも適しています。
  • 開発者はコンシューマー向けのハードウェア(RTX 5060 Ti 16GB GPU)上でモデルをローカルにトレーニングし、大規模インフラなしでも十分な小型LLMが作れることを示しました。
  • 今後の計画にはApex 1.5とコード特化バージョンがあり、コミュニティからのフィードバックやベンチマークが求められています。

皆さん、こんにちは!

私の最新プロジェクト、Apex-1 をご紹介したいと思います。これは、エッジデバイスでのスピードと効率を目的とした軽量な3億5千万パラメータのモデルです。

目的: 消費者向けハードウェアと高品質なデータを使って、小さなモデルにどれだけ多くの「世界知識」と命令追従能力を詰め込めるか試してみたかったのです。

主要情報:

  • アーキテクチャ: nanoGPT / Transformerをベースにしています。
  • データセット: 推論と知識のためにFineWeb-Edu(10BT)のサブセットで事前学習しました。
  • 微調整: 命令追従性向上のためAlpaca-Cleanedで微調整しています。
  • フォーマット: 重みはONNX(モバイル/ウェブ向けに最適)と標準のPyTorch形式で提供されています。

基本的な要約や簡単なQ&A、通常はLLMを扱えないハードウェアでの実行に適しています。

こちらでご覧ください:https://huggingface.co/LH-Tech-AI/Apex-1-Instruct-350M

これはまだ始まりに過ぎません。Apex 1.5とコードに特化したバージョンが既に開発中です。ぜひフィードバックやベンチマーク結果をお待ちしています!