internlm/Intern-S2-Preview:Hugging Face

Reddit r/LocalLLaMA / 2026/5/15

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Hugging Faceは、パラメータやデータのスケールだけでなく「タスクスケーリング」を重視する、効率的な35B規模の科学系マルチモーダル基盤モデル「Intern-S2-Preview」を紹介した。
  • 本モデルは、専門的な科学タスクを事前学習から強化学習までのフルチェーン学習パイプラインへ拡張することで、35Bパラメータのみで主要なプロフェッショナル科学タスクにおいてIntern-S1-Pro(トリリオン規模)に匹敵する性能を達成したという。
  • Intern-S2-Previewはマルチモーダルな科学能力を強化し、小分子構造の空間モデリングの向上や実数値予測モジュールの導入を掲げており、物質の結晶構造生成と高い汎用能力の両方を備えた初のオープンソースモデルだと主張している。
  • 科学ワークフロー向けのエージェント能力も改善され、複数の科学系エージェントベンチマークで良好な結果が報告されている。
  • 強化学習では、KL損失付きの共有重みMTPにより学習・推論の不一致を抑えてMTP受容率とトークン生成速度を改善し、さらにCoT圧縮で応答を短縮しつつ推論性能を維持するとしている。
internlm/Intern-S2-Preview · Hugging Face

はじめに

私たちは、効率的な35Bの科学マルチモーダル基盤モデルであるIntern-S2-Previewを紹介します。従来のパラメータ規模やデータ規模の拡大にとどまらず、Intern-S2-Previewではタスク規模の拡大を探究します。つまり、科学タスクの難易度・多様性・カバー範囲を増やすことで、モデル能力をさらに引き出します。

専門的な科学タスクを、事前学習から強化学習までのフルチェーンの学習パイプラインへ拡張することで、Intern-S2-Previewは、35Bパラメータ(Qwen3.5から継続して事前学習)のみを使用しながら、複数の主要な専門的科学タスクにおいて、トリリオン規模のIntern-S1-Proに匹敵する性能を達成しています。同時に、強力な汎用的推論、マルチモーダル理解、エージェント能力も維持しています。

機能

  • フルチェーン学習による科学タスクの規模拡大。 Intern-S2-Previewは、事前学習からRLまでのプロフェッショナルな科学タスクを数百にスケールし、35Bパラメータのみで複数の専門領域にまたがって高い性能を実現します。さらに、小分子構造のための空間モデリングを強化し、実数値予測モジュールを導入します。これにより、材料の結晶構造生成能力と強力な汎用能力の両方を備えた、初のオープンソースモデルとなっています。
  • 科学ワークフロー向けのエージェント能力の強化。 Intern-S2-Previewは、従来世代からエージェント的能力を大幅に向上させ、複数の科学エージェントベンチマークで強い結果を達成しています。
  • MTPとCoT圧縮による効率的なRL推論。 RL中、Intern-S2-Previewは、KLロス付きの共有重みMTPを採用し、学習時と推論時の挙動の不一致を減らします。これにより、MTPの受理率とトークン生成速度が大幅に改善されます。さらに、CoT圧縮技術を導入して、強い推論能力を維持しながら応答を短縮し、性能と効率の両面で向上を実現しています。
投稿者 /u/pmttyji
[リンク] [コメント]