| Ling-2.6-1T:複雑なタスク向けの1兆パラメータ・総合フラッグシップモデル本日、LingファミリーのLing–2.6–1Tをオープンソースとして公開できることを嬉しく思います。 実世界の複雑なシナリオに合わせて設計されたこの1兆パラメータモデルは、推論効率、トークンのオーバーヘッド、エージェント的な能力に対する的を絞った最適化を導入し、コーディングや日常のワークフローに対して非常に高い効果を発揮します。 Ling–2.6–1Tの主なアップグレードは以下のとおりです:
[リンク] [コメント] |
Hugging Face:inclusionAI/Ling-2.6-1T(1兆パラメータ)をオープンソース公開
Reddit r/LocalLLaMA / 2026/4/30
📰 ニュースTools & Practical UsageIndustry & Market MovesModels & Research
要点
- Hugging Faceで、Lingファミリーの「inclusionAI/Ling-2.6-1T」がオープンソースとして公開され、1兆パラメータ級のフラッグシップモデルとして複雑な実タスクを狙うとしています。
- 推論効率ではMLAとLinear Attentionのハイブリッド構成により、長文コンテキストでのレイテンシとVRAM使用量を抑えつつ、スループットと計算コストを改善したと説明しています。
- 「Fast Thinking」として、ポストトレーニングでContextual Process Redundancy Suppression報酬戦略を導入し、冗長なCoT(思考の連鎖)への依存を下げて出力コストを圧縮しながら高い知能を維持するとしています。
- 推論・エージェント実行面では、コードと日常ワークフローに強く、実行負荷ベンチマーク(AIME26、SWE-bench Verified、BFCL-V4、TAU2-Bench、IFBenchなど)でオープンソースSOTAを達成し、Claude CodeやOpenClaw等の主要エージェント系フレームワークと統合しやすいとしています。




