要点
- huggingface.co で無料アカウントを作成し、アクセストークンを生成
huggingface_hubSDKとCLIをインストール:pip install --upgrade huggingface_hubsnapshot_download()でモデルをダウンロード、または無料のInference APIを利用- Spaces(Gradio/Streamlit)を使用して数分でデモをデプロイ
push_to_hub()またはCLIで独自のモデルをアップロード
1. アカウントとトークンの作成
Hugging Face Hubは認証にアクセストークンを使用します。以下の手順で設定します。
ステップ1:アカウント登録
- huggingface.co/join にアクセス
- メールアドレス、ユーザー名、パスワードを入力
- メールを確認(受信箱を確認)
ステップ2:アクセストークンの生成
- huggingface.co/settings/tokens に移動
- 「New token」 をクリック
- 名前(例:
my-laptop-cli)とロール(フルアクセスの場合は 「Write」 を選択)を設定 - 「Generate token」 をクリック
- トークンをすぐにコピー(再表示されません)
期待される出力:
hf_abcdefghijklmnopqrstuvwxyz1234567890
ステップ3:トークンを安全に保存
# ファイルに保存(Linux/macOS)
echo "hf_abcdefghijklmnopqrstuvwxyz1234567890" > ~/.huggingface/token
# パーミッションを設定(Linux/macOS)
chmod 600 ~/.huggingface/token
注意点:Gitにトークンをコミットしないでください。.gitignore に ~/.huggingface/token を追加してください。
2. huggingface-cli のセットアップ
CLIはターミナルからHubとやり取りする最も迅速な方法です。
CLIのインストール
pip install --upgrade "huggingface_hub[cli]"
ログイン
huggingface-cli login
期待される出力:
_| _| _| _| _|_|_| _|_|_| _|_|_| _| _|
_| _| _| _| _| _| _| _|_| _|
_|_|_|_| _| _| _| _|_| _| _|_| _| _| _| _|
_| _| _| _| _| _| _| _| _| _| _|_
_| _| _|_| _|_|_| _|_|_| _|_|_| _| _|
ログインするには、`huggingface_hub` は https://huggingface.co/settings/tokens で生成されたトークンが必要です。
Token:
トークンを貼り付け、Enter を押します。
よくあるエラー:
ValueError: Token is invalid. Please try again.
対処法:トークンを再生成し、正しくコピーされていることを確認してください。
3. モデルのダウンロードと使用
Hugging Face Hubには 500,000以上のモデル(2026年現在)がホストされています Hugging Face Hub Stats。以下の方法で利用できます。
オプション1:snapshot_download でダウンロード
from huggingface_hub import snapshot_download
# モデルをダウンロード(例:「bert-base-uncased」)
model_path = snapshot_download(
repo_id="bert-base-uncased",
local_dir="./bert-base-uncased",
local_dir_use_symlinks=False # 移植性のためにシンボリックリンクを回避
)
print(f"モデルがダウンロードされました:{model_path}")
期待される出力:
モデルがダウンロードされました:./bert-base-uncased
オプション2:Transformersとの使用
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModel.from_pretrained("bert-base-uncased")
inputs = tokenizer("Hello, world!", return_tensors="pt")
outputs = model(**inputs)
print(outputs.last_hidden_state.shape)
期待される出力:
torch.Size([1, 4, 768])
注意点:大規模モデル(例:meta-llama/Llama-3-70b)は 100GB以上のディスク容量 が必要になる場合があります。snapshot_download で ignore_patterns=["*.bin"] を使用して重みをスキップしてください。
4. Inference API(無料枠)
Inference APIを使用すると、モデルをダウンロードせずに実行できます。無料枠には 1日1,000リクエスト が含まれます Inference API Docs。
例:テキスト生成
import requests
API_URL = "https://api-inference.huggingface.co/models/mistralai/Mistral-7B-v0.1"
headers = {"Authorization": "Bearer hf_abcdefghijklmnopqrstuvwxyz1234567890"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
output = query({
"inputs": "5歳の子供にAIを説明してください:",
"parameters": {"max_new_tokens": 50}
})
print(output[0]["generated_text"])
期待される出力:
AIは、本やゲームから学んで、絵を描いたりお話をしたりする、とっても賢いロボットのお友達みたいなものだよ!
レート制限
| プラン | 1日あたりのリクエスト数 | 1秒あたりのリクエスト数 |
|---|---|---|
| Free | 1,000 | 1 |
| Pro | 10,000 | 5 |
| Enterprise | カスタム | カスタム |
注意点:無料枠のリクエストはピーク時にキューに入る場合があります。優先アクセスにはProプランへのアップグレードをご検討ください。
5. デモ用のSpaces
SpacesはHugging Face上でホストされるインタラクティブなWebアプリ(Gradio/Streamlit)です。デモや社内ツールに最適です。
ステップ1:Spaceの作成
- huggingface.co/spaces にアクセス
- 「Create new Space」 をクリック
- 以下を選択:
- 名前:
my-first-demo - ライセンス:
MIT - ハードウェア:
CPU(無料)またはA10G(有料、$0.50/時間) - SDK:
Gradio(初心者に最適)
- 名前:
- 「Create Space」 をクリック
ステップ2:簡単なアプリの追加
app.py の内容を以下に置き換えます:
import gradio as gr
def greet(name):
return f"Hello {name}!"
demo = gr.Interface(fn=greet, inputs="text", outputs="text")
demo.launch()
ステップ3:デプロイ
- 「Commit」 をクリックして変更をプッシュ
- アプリのビルドに 30~60秒 待機
- SpaceのURLを共有(例:
https://hf.co/spaces/your-username/my-first-demo)
注意点:無料のSpacesは 30分後にアイドル状態 になります。「Always On」機能(有料)を使用してこれを防止できます。
6. 独自のモデルのアップロード
独自のモデルを世界と共有(または非公開に)できます。
オプション1:CLIを使用
# 新しいリポジトリを作成
huggingface-cli repo create my-awesome-model --type model
# リポジトリをクローン
git lfs install
git clone https://huggingface.co/your-username/my-awesome-model
cd my-awesome-model
# モデルファイルを追加(例:PyTorchの重み)
cp /path/to/your/model/* .
# コミットしてプッシュ
git add .
git commit -m "Add my awesome model"
git push
オプション2:Python SDKを使用
from huggingface_hub import HfApi
api = HfApi()
api.upload_file(
path_or_fileobj="/path/to/pytorch_model.bin",
path_in_repo="pytorch_model.bin",
repo_id="your-username/my-awesome-model",
repo_type="model",
)
注意点:5GBを超える大容量ファイルはタイムアウトする場合があります。huggingface_hub でチャンクアップロードを使用してください:
from huggingface_hub import upload_file
upload_file(
path_or_fileobj="/path/to/large-model.bin",
path_in_repo="large-model.bin",
repo_id="your-username/my-awesome-model",
repo_type="model",
chunk_size=10 * 1024 * 1024, # 10MBチャンク
)
7. Transformersライブラリのクイックスタート
transformers ライブラリはHugging Faceモデルを使用する最も簡単な方法です。
Transformersのインストール
pip install --upgrade transformers
例:テキスト分類
from transformers import pipeline
classifier = pipeline("text-classification", model="distilbert-base-uncased-finetuned-sst-2-english")
result = classifier("I love Hugging Face Hub!")
print(result)
期待される出力:
[{'label': 'POSITIVE', 'score': 0.9998}]
例:画像分類
from transformers import pipeline
classifier = pipeline("image-classification", model="google/vit-base-patch16-224")
result = classifier("https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/cat.png")
print(result)
期待される出力:
[{'label': 'tabby cat', 'score': 0.98}]
注意点:一部のモデルは 特定の依存関係(例:PyTorchモデルの場合は torch)が必要です。以下のコマンドでインストールしてください:
pip install torch tensorflow # PyTorch/TensorFlowモデル用
次のステップ
- モデルを探索:huggingface.co/models を閲覧し、Inference APIで3つのモデルを試してみてください。
- Spaceをデプロイ:お気に入りのモデル(例:チャットボットや画像生成)用のGradioアプリを構築してください。
- 貢献:ファインチューニングしたモデルやデータセットをアップロードし、コミュニティと共有してください。
AIワークフローをスケーリングするチーム向けに、Hyperion ConsultingはHugging Faceのデプロイメントを効率化するエンドツーエンドのツールとコンサルティングを提供しています。
