Hugging Face:inclusionAI/Ling-2.6-1T(1兆パラメータ)をオープンソース公開

Reddit r/LocalLLaMA / 2026/4/30

📰 ニュースTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • Hugging Faceで、Lingファミリーの「inclusionAI/Ling-2.6-1T」がオープンソースとして公開され、1兆パラメータ級のフラッグシップモデルとして複雑な実タスクを狙うとしています。
  • 推論効率ではMLAとLinear Attentionのハイブリッド構成により、長文コンテキストでのレイテンシとVRAM使用量を抑えつつ、スループットと計算コストを改善したと説明しています。
  • 「Fast Thinking」として、ポストトレーニングでContextual Process Redundancy Suppression報酬戦略を導入し、冗長なCoT(思考の連鎖)への依存を下げて出力コストを圧縮しながら高い知能を維持するとしています。
  • 推論・エージェント実行面では、コードと日常ワークフローに強く、実行負荷ベンチマーク(AIME26、SWE-bench Verified、BFCL-V4、TAU2-Bench、IFBenchなど)でオープンソースSOTAを達成し、Claude CodeやOpenClaw等の主要エージェント系フレームワークと統合しやすいとしています。
inclusionAI/Ling-2.6-1T · Hugging Face

Ling-2.6-1T:複雑なタスク向けの1兆パラメータ・総合フラッグシップモデル

本日、LingファミリーのLing–2.6–1Tをオープンソースとして公開できることを嬉しく思います。

実世界の複雑なシナリオに合わせて設計されたこの1兆パラメータモデルは、推論効率、トークンのオーバーヘッド、エージェント的な能力に対する的を絞った最適化を導入し、コーディングや日常のワークフローに対して非常に高い効果を発揮します。

Ling–2.6–1Tの主なアップグレードは以下のとおりです:

  • 高い推論効率: MLAと線形アテンションを組み合わせたハイブリッド・アーキテクチャを採用することで、長いコンテキストに対するレイテンシとVRAM使用量を大幅に削減します。表現力を損なうことなく、優れたスループットと、トークンあたりの計算コストの低さを実現し、複雑な推論やツール呼び出しに対してリアルタイムな応答性を確保します。
  • 「高速思考」によるトークンオーバーヘッドの削減: 後学習(ポストトレーニング)の際に、文脈に基づく処理の冗長性抑制の報酬戦略を導入します。これにより、冗長な思考の連鎖(CoT)への依存を減らし、「高速思考」メカニズムを用いて答えに直接到達します。出力コストを圧縮しつつ、最高レベルの知能を維持します。
  • 信頼性の高いマルチステップ実行: 推論、エージェント的なコーディング、指示追従の強化により、Ling–2.6–1Tは、AIME26、SWE–bench Verified、BFCL–V4、TAU2–Bench、IFBenchなど、実行負荷の高いベンチマークでオープンソースのSOTAを達成しています。
  • エージェントのワークフローに向けたプロダクション対応: コード生成からバグ修正まで、エンドツーエンドのエンジニアリングを想定して設計されたLing–2.6–1Tは、Claude Code、OpenClaw、OpenCode、CodeBuddyといった主要なエージェント・フレームワークとシームレスに統合できます。エンタープライズ環境におけるマルチツール、マルチステップの制約も難なく処理します。
投稿者: /u/pmttyji
[リンク] [コメント]