広告

Glows.aiでHuggingFaceモデルをダウンロードする方法

Dev.to / 2026/4/3

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • このガイドでは、Glows.ai上でHuggingFaceモデルをダウンロードする2つの方法を説明します:Datadriveストレージ(永続的で、ローカルでのダウンロード/アップロードによる)と、インスタンスベースのストレージ(一時的で、起動中のインスタンス内)。
  • Datadriveストレージでは、ストレージプランが有効である限り制限なくデータの読み書きができ、ダウンロード速度は主にローカルネットワークに依存します。
  • インスタンスベースのストレージは、インスタンスのデータセンターの帯域を共有することで高速なダウンロードが可能ですが、インスタンスが解放された後にデータが削除されるため、一度きりのテストに適しています。
  • Datadriveのワークフローには、十分なストレージ容量があることの確認、ストレージパッケージの購入、そして特定のリージョンのDatadriveへのストレージ割り当て(例:100GBパッケージを使用し、65GBのモデルをTW-03に割り当てる)を含みます。
  • 記事では、Data DriveクライアントがHuggingFaceから適切なリージョンのDatadriveへ直接モデルをダウンロードできることに触れています。

このチュートリアルでは、Glows.ai上でHuggingFaceモデルをダウンロードする方法を2つ紹介します。1つはGlows.ai Datadriveストレージ(ローカルでのダウンロードとアップロード)、もう1つはインスタンスベースのストレージ(インスタンス内で直接ダウンロード)です。

  • Glows.ai Datadriveストレージ:ストレージスペースプランが有効である限り、データは制限なく読み書きできます。ダウンロード速度はローカルネットワークに依存するため、同じデータを頻繁にダウンロードする必要があるユーザー(例:モデル提供)に適しています。
  • インスタンスベースのストレージ:データはインスタンスが稼働している間のみ有効です。インスタンスが解放されると、データは削除されます。インスタンスのデータセンターの帯域を共有するため、ダウンロード速度は速くなります。この方法は、データを一度限りの用途で使う必要があるユーザー(例:モデルの性能テスト)に適しています。

Glows.ai Datadrive Storage

この方法ではデータをGlows.ai Datadriveに保存します。Space Storageプランが十分な容量を提供していることを確認し、使用したいリージョンのDataDriveにその容量を割り当ててください。

Allocate Storage

たとえば、65GBのモデルをダウンロードし、TW-03リージョンNVIDIA GeForce RTX 4090 GPUを使用する予定だとします。まず、Storage Spaceにアクセスして、100GBのストレージパッケージを購入する必要があります。

次に、Storage Spaceの画面でModifyボタンをクリックし、TW-03 region Datadrive70GBの容量を割り当てます。

Datadrive Client Download

Data Driveクライアントは現在、HuggingFaceから各リージョンの対応するDatadriveへ、モデルを直接ダウンロードすることをサポートしています。
動作は次のようになります。ローカルネットワークを使って、クライアントがHuggingFaceのモデルチャンクをローカルにダウンロードし、その後それらをDatadriveに同期します。

Instance-based Storage

Create an Instance

この方法では、Glows.ai上でインスタンスを作成する必要があります。たとえば、TW-03リージョンNVIDIA GeForce RTX 4090 GPUを使用し、環境はCUDA 12.8 Torch 2.8.0 Baseにする場合を考えます。

インスタンスを作成したら、SSHまたはHTTP Port 8888(JupyterLab)経由で接続できます。

Download Model Using Commands

JupyterLabは使いやすいです。次の例では、JupyterLab内での操作を示します。
新しいTerminalを開きます。

以下のコマンドを入力して、HuggingFaceの公式モデル管理ツールhuggingface_hubをインストールします:

pip install -U huggingface_hub

インストール後、hfコマンドを使って、モデルファイルをインスタンスに直接ダウンロードできます。
たとえば、/gpt-oss-20bディレクトリにopenai/gpt-oss-20bをダウンロードするには、次を実行します:

hf download openai/gpt-oss-20b --local-dir /gpt-oss-20b

Running HuggingFace Models on Glows.ai

いくつかのフレームワークでは、TransformersSGLangGPUStackのように、HuggingFaceモデルを直接読み込み、実行できるものがあります。
デプロイのために、最も慣れているソフトウェアを使うこともできますし、以下のチュートリアルを参照することもできます:

HuggingFace の公式Webサイトでも、使用例が提供されています。
Glows.ai への実装中にご質問やご提案がありましたら、お気軽にお問い合わせください。

広告