このチュートリアルでは、Glows.ai上でHuggingFaceモデルをダウンロードする方法を2つ紹介します。1つはGlows.ai Datadriveストレージ(ローカルでのダウンロードとアップロード)、もう1つはインスタンスベースのストレージ(インスタンス内で直接ダウンロード)です。
- Glows.ai Datadriveストレージ:ストレージスペースプランが有効である限り、データは制限なく読み書きできます。ダウンロード速度はローカルネットワークに依存するため、同じデータを頻繁にダウンロードする必要があるユーザー(例:モデル提供)に適しています。
- インスタンスベースのストレージ:データはインスタンスが稼働している間のみ有効です。インスタンスが解放されると、データは削除されます。インスタンスのデータセンターの帯域を共有するため、ダウンロード速度は速くなります。この方法は、データを一度限りの用途で使う必要があるユーザー(例:モデルの性能テスト)に適しています。
Glows.ai Datadrive Storage
この方法ではデータをGlows.ai Datadriveに保存します。Space Storageプランが十分な容量を提供していることを確認し、使用したいリージョンのDataDriveにその容量を割り当ててください。
Allocate Storage
たとえば、65GBのモデルをダウンロードし、TW-03リージョンでNVIDIA GeForce RTX 4090 GPUを使用する予定だとします。まず、Storage Spaceにアクセスして、100GBのストレージパッケージを購入する必要があります。
次に、Storage Spaceの画面でModifyボタンをクリックし、TW-03 region Datadriveに70GBの容量を割り当てます。
Datadrive Client Download
Data Driveクライアントは現在、HuggingFaceから各リージョンの対応するDatadriveへ、モデルを直接ダウンロードすることをサポートしています。
動作は次のようになります。ローカルネットワークを使って、クライアントがHuggingFaceのモデルチャンクをローカルにダウンロードし、その後それらをDatadriveに同期します。
- Data Driveクライアントをインストール:こちらからダウンロード
- チュートリアルに従う:HuggingFaceからモデルをダウンロード
Instance-based Storage
Create an Instance
この方法では、Glows.ai上でインスタンスを作成する必要があります。たとえば、TW-03リージョンでNVIDIA GeForce RTX 4090 GPUを使用し、環境はCUDA 12.8 Torch 2.8.0 Baseにする場合を考えます。
インスタンスを作成したら、SSHまたはHTTP Port 8888(JupyterLab)経由で接続できます。
Download Model Using Commands
JupyterLabは使いやすいです。次の例では、JupyterLab内での操作を示します。
新しいTerminalを開きます。
以下のコマンドを入力して、HuggingFaceの公式モデル管理ツールhuggingface_hubをインストールします:
pip install -U huggingface_hub
インストール後、hfコマンドを使って、モデルファイルをインスタンスに直接ダウンロードできます。
たとえば、/gpt-oss-20bディレクトリにopenai/gpt-oss-20bをダウンロードするには、次を実行します:
hf download openai/gpt-oss-20b --local-dir /gpt-oss-20b
Running HuggingFace Models on Glows.ai
いくつかのフレームワークでは、Transformers、SGLang、GPUStackのように、HuggingFaceモデルを直接読み込み、実行できるものがあります。
デプロイのために、最も慣れているソフトウェアを使うこともできますし、以下のチュートリアルを参照することもできます:
HuggingFace の公式Webサイトでも、使用例が提供されています。
Glows.ai への実装中にご質問やご提案がありましたら、お気軽にお問い合わせください。











