AI Navigate

Unsloth Studioを紹介します:LLMs(大規模言語モデル)をローカルで訓練・実行する新しいオープンソースのWeb UI

Reddit r/LocalLLaMA / 2026/3/18

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Unsloth Studio Betaは、Mac、Windows、Linux上でローカルにLLMs(大規模言語モデル)を訓練・実行する新しいオープンソースのWeb UIとして紹介されます。
  • 500以上のモデルに対してVRAMを約70%削減し、トレーニングを2倍の速さで実現すると約束し、GGUF、ビジョン、オーディオ、埋め込みモデルをサポートします。
  • 機能としては、モデルの横並び比較、ウェブ検索を用いた自己修復機能を備えたツール呼び出し、PDF/CSV/DOCXからのデータセットを自動作成、コード出力をテストするためのコード実行機能などを備えています。
  • GGUF、Safetensors、およびその他の形式へのモデルエクスポートをサポートします。自動推論パラメータのチューニングと編集可能なチャットテンプレートも提供します。
  • インストールはpip経由で、今後のアップデートに向けてGitHubのIssuesとドキュメントページを通じてフィードバックを募集しています。
Introducing Unsloth Studio: A new open-source web UI to train and run LLMs

やあ r/LocalLlama、Unsloth Studio(ベータ版)という、LLMs を1つの統合ローカルUIインターフェースで訓練・実行する新しいオープンソースのウェブUIをリリースできることを非常に嬉しく思います。GitHub: https://github.com/unslothai/unsloth

Unsloth Studio の主要機能の概要は以下のとおりです:

  • ローカルで Mac、Windows、および Linux 上でモデルを実行
  • 500以上のモデルを VRAM を70%削減して2倍の速さで訓練
  • GGUF、視覚、音声、埋め込みモデルをサポート
  • 比較を行い、モデルを 横に並べて比較
  • 自己修復のツール呼び出しと ウェブ検索
  • PDF、CSV、および DOCX から自動でデータセットを作成
  • コード実行 により LLMs がコードをテストしてより正確な出力を得られます
  • エクスポートして GGUF、Safetensors などへ
  • 自動推論パラメータのチューニング(temp、top-p など)+ チャットテンプレートの編集

ブログと知っておくべきすべての情報: https://unsloth.ai/docs/new/studio

インストール方法:

pip install unsloth unsloth studio setup unsloth studio -H 0.0.0.0 -p 8888 

今後数日で多数の更新と新機能を公開する予定です。ご質問がある場合や問題が発生した場合は、GitHub の Issue を作成するか、こちらまでお知らせください。

投稿者: /u/danielhanchen
[リンク] [コメント]