AI Navigate

実験: 28Mパラメータのモデルはビジネスメール生成でどこまで通用するか?

Reddit r/LocalLLaMA / 2026/3/20

💬 オピニオンTools & Practical UsageModels & Research

要点

  • 約28MパラメータのTransformerモデルが、合成されたビジネスメールで訓練されており、指示に従うことには苦戦するものの、時には一貫したメール風のテキストを生成することがある。
  • 本稿は、厳密なパラメータ制約の下で、構造化生成を小さなモデルがどこまでこなせるかを探る実験として位置づけており、完璧ではないことを認めている。
  • 「丁寧な拒否メールを書く」というプロンプトからのサンプル出力は、モデルが時折ほぼ使えるテキストを生成できることを示す一方で、一貫性を欠き、文脈のずれに陥りやすい。
  • GitHubとHuggingFaceのリポジトリへのリンクが提供されており、実装はTRM実験およびmlx-trm実装に基づいたものであると大まかに説明され、一貫性と指示遵守の改善についてのフィードバックを求めている。

私は、合成のビジネスメールデータを用いて、サイズの小さな(約28Mパラメータ)Transformerモデルのトレーニングを試しています。

これは決して完璧ではなく、指示に従う点でもまだ苦戦しますが、それでも時には比較的筋の通ったメールのようなテキストを生成することがある、というのには驚きました。

このモデルは典型的なLLMと比較して非常に小さいため、厳しいパラメータ制約の下で構造化された生成がどこまで可能かを確かめる実験のようなものでした。

生成の中には混乱したり話題が逸れるものもありますが、時にはほぼ使えるように見える出力を生み出します。

小さなモデルにおける一貫性や指示の追従性を改善するアイデア、特にフィードバックには興味があります。

以下は1つのサンプル出力です:

プロンプト: 「丁寧な断りメールを書く」

出力:

これは金曜日の夕方であることを理解していますが、喜んで追加情報を提供します。
詳細について話し合い、代替案を検討するために最善を尽くします。

私たちは進捗状況をお知らせします。この件にご興味がありましたらお知らせください。

敬具、

[name]

この出力は約28Mパラメータのモデルからのもので、まだ一貫性には欠けますが、時には近いものを出します。

ご興味がある方は:
GitHub: https://github.com/kamisori-daijin/textrm
HuggingFace: https://huggingface.co/Kamisori-daijin/textrm-28M-bizmail

(実装は、いくつかのTRM実験およびmlx-trm実装に基づいています。)

投稿者: /u/AdhesivenessSea9511
[リンク] [コメント]