| はじめに私たちは、効率的な35Bの科学マルチモーダル基盤モデルであるIntern-S2-Previewを紹介します。従来のパラメータ規模やデータ規模の拡大にとどまらず、Intern-S2-Previewではタスク規模の拡大を探究します。つまり、科学タスクの難易度・多様性・カバー範囲を増やすことで、モデル能力をさらに引き出します。 専門的な科学タスクを、事前学習から強化学習までのフルチェーンの学習パイプラインへ拡張することで、Intern-S2-Previewは、35Bパラメータ(Qwen3.5から継続して事前学習)のみを使用しながら、複数の主要な専門的科学タスクにおいて、トリリオン規模のIntern-S1-Proに匹敵する性能を達成しています。同時に、強力な汎用的推論、マルチモーダル理解、エージェント能力も維持しています。 機能
[リンク] [コメント] |
internlm/Intern-S2-Preview:Hugging Face
Reddit r/LocalLLaMA / 2026/5/15
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- Hugging Faceは、パラメータやデータのスケールだけでなく「タスクスケーリング」を重視する、効率的な35B規模の科学系マルチモーダル基盤モデル「Intern-S2-Preview」を紹介した。
- 本モデルは、専門的な科学タスクを事前学習から強化学習までのフルチェーン学習パイプラインへ拡張することで、35Bパラメータのみで主要なプロフェッショナル科学タスクにおいてIntern-S1-Pro(トリリオン規模)に匹敵する性能を達成したという。
- Intern-S2-Previewはマルチモーダルな科学能力を強化し、小分子構造の空間モデリングの向上や実数値予測モジュールの導入を掲げており、物質の結晶構造生成と高い汎用能力の両方を備えた初のオープンソースモデルだと主張している。
- 科学ワークフロー向けのエージェント能力も改善され、複数の科学系エージェントベンチマークで良好な結果が報告されている。
- 強化学習では、KL損失付きの共有重みMTPにより学習・推論の不一致を抑えてMTP受容率とトークン生成速度を改善し、さらにCoT圧縮で応答を短縮しつつ推論性能を維持するとしている。


