Zusammenfassung
- Erstellen Sie ein kostenloses Konto und generieren Sie ein Zugriffstoken unter huggingface.co
- Installieren Sie das
huggingface_hubSDK und die CLI:pip install --upgrade huggingface_hub - Laden Sie Modelle mit
snapshot_download()herunter oder nutzen Sie die kostenlose Inference API - Stellen Sie Demos in Minuten mit Spaces (Gradio/Streamlit) bereit
- Laden Sie Ihre eigenen Modelle mit
push_to_hub()oder der CLI hoch
1. Konto und Token erstellen
Hugging Face Hub verwendet Zugriffstokens für die Authentifizierung. So richten Sie eines ein:
Schritt 1: Registrieren
- Gehen Sie zu huggingface.co/join
- Geben Sie Ihre E-Mail-Adresse, Ihren Benutzernamen und Ihr Passwort ein
- Bestätigen Sie Ihre E-Mail-Adresse (prüfen Sie Ihren Posteingang)
Schritt 2: Zugriffstoken generieren
- Navigieren Sie zu huggingface.co/settings/tokens
- Klicken Sie auf "New token"
- Geben Sie einen Namen (z. B.
my-laptop-cli) und eine Rolle an (wählen Sie "Write" für vollen Zugriff) - Klicken Sie auf "Generate token"
- Kopieren Sie das Token sofort (es wird nicht erneut angezeigt)
Erwartete Ausgabe:
hf_abcdefghijklmnopqrstuvwxyz1234567890
Schritt 3: Token sicher speichern
# In einer Datei speichern (Linux/macOS)
echo "hf_abcdefghijklmnopqrstuvwxyz1234567890" > ~/.huggingface/token
# Berechtigungen setzen (Linux/macOS)
chmod 600 ~/.huggingface/token
Achtung: Geben Sie Ihr Token niemals in Git ein. Fügen Sie ~/.huggingface/token zu Ihrer .gitignore hinzu.
2. huggingface-cli einrichten
Die CLI ist die schnellste Möglichkeit, vom Terminal aus mit dem Hub zu interagieren.
CLI installieren
pip install --upgrade "huggingface_hub[cli]"
Anmelden
huggingface-cli login
Erwartete Ausgabe:
_| _| _| _| _|_|_| _|_|_| _|_|_| _| _|
_| _| _| _| _| _| _| _|_| _|
_|_|_|_| _| _| _| _|_| _| _|_| _| _| _| _|
_| _| _| _| _| _| _| _| _| _| _|_
_| _| _|_| _|_|_| _|_|_| _|_|_| _| _|
Für die Anmeldung benötigt `huggingface_hub` ein Token, das unter https://huggingface.co/settings/tokens generiert wurde.
Token:
Fügen Sie Ihr Token ein und drücken Sie Enter.
Häufiger Fehler:
ValueError: Token ist ungültig. Bitte versuchen Sie es erneut.
Lösung: Generieren Sie Ihr Token neu und stellen Sie sicher, dass Sie es korrekt kopiert haben.
3. Modelle herunterladen und verwenden
Hugging Face Hub hostet über 500.000 Modelle (Stand 2026) Hugging Face Hub Statistiken. So verwenden Sie sie:
Option 1: Herunterladen mit snapshot_download
from huggingface_hub import snapshot_download
# Ein Modell herunterladen (z. B. "bert-base-uncased")
model_path = snapshot_download(
repo_id="bert-base-uncased",
local_dir="./bert-base-uncased",
local_dir_use_symlinks=False # Symlinks vermeiden für bessere Portabilität
)
print(f"Modell heruntergeladen nach: {model_path}")
Erwartete Ausgabe:
Modell heruntergeladen nach: ./bert-base-uncased
Option 2: Verwendung mit Transformers
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")
model = AutoModel.from_pretrained("bert-base-uncased")
inputs = tokenizer("Hallo, Welt!", return_tensors="pt")
outputs = model(**inputs)
print(outputs.last_hidden_state.shape)
Erwartete Ausgabe:
torch.Size([1, 4, 768])
Achtung: Große Modelle (z. B. meta-llama/Llama-3-70b) benötigen möglicherweise 100 GB+ Speicherplatz. Verwenden Sie ignore_patterns=["*.bin"] in snapshot_download, um Gewichte zu überspringen.
4. Inference API (kostenlose Version)
Die Inference API ermöglicht es Ihnen, Modelle auszuführen, ohne sie herunterzuladen. Die kostenlose Version umfasst 1.000 Anfragen/Tag Inference API Dokumentation.
Beispiel: Textgenerierung
import requests
API_URL = "https://api-inference.huggingface.co/models/mistralai/Mistral-7B-v0.1"
headers = {"Authorization": "Bearer hf_abcdefghijklmnopqrstuvwxyz1234567890"}
def query(payload):
response = requests.post(API_URL, headers=headers, json=payload)
return response.json()
output = query({
"inputs": "Erkläre KI einem 5-jährigen Kind:",
"parameters": {"max_new_tokens": 50}
})
print(output[0]["generated_text"])
Erwartete Ausgabe:
KI ist wie ein superkluger Roboterfreund, der aus Büchern und Spielen lernt, um uns bei lustigen Dingen zu helfen, wie Malen oder Geschichten erzählen!
Ratenbegrenzungen
| Plan | Anfragen/Tag | Anfragen/Sekunde |
|---|---|---|
| Free | 1.000 | 1 |
| Pro | 10.000 | 5 |
| Enterprise | Individuell | Individuell |
Achtung: Anfragen der kostenlosen Version können in Stoßzeiten in die Warteschlange gestellt werden. Ein Upgrade auf Pro bietet priorisierten Zugriff.
5. Spaces für Demos
Spaces sind interaktive Web-Apps (Gradio/Streamlit), die auf Hugging Face gehostet werden. Ideal für Demos oder interne Tools.
Schritt 1: Space erstellen
- Gehen Sie zu huggingface.co/spaces
- Klicken Sie auf "Create new Space"
- Wählen Sie:
- Name:
my-first-demo - Lizenz:
MIT - Hardware:
CPU(kostenlos) oderA10G(kostenpflichtig, $0,50/Stunde) - SDK:
Gradio(am einfachsten für Anfänger)
- Name:
- Klicken Sie auf "Create Space"
Schritt 2: Einfache App hinzufügen
Ersetzen Sie den Inhalt von app.py durch:
import gradio as gr
def greet(name):
return f"Hallo {name}!"
demo = gr.Interface(fn=greet, inputs="text", outputs="text")
demo.launch()
Schritt 3: Bereitstellen
- Klicken Sie auf "Commit", um die Änderungen zu übertragen
- Warten Sie 30-60 Sekunden, bis die App erstellt ist
- Teilen Sie die URL Ihres Spaces (z. B.
https://hf.co/spaces/your-username/my-first-demo)
Achtung: Kostenlose Spaces schalten sich nach 30 Minuten Inaktivität ab. Nutzen Sie die "Always On"-Funktion (kostenpflichtig), um dies zu verhindern.
6. Eigene Modelle hochladen
Teilen Sie Ihre Modelle mit der Welt (oder halten Sie sie privat).
Option 1: Verwendung der CLI
# Neues Repository erstellen
huggingface-cli repo create my-awesome-model --type model
# Repository klonen
git lfs install
git clone https://huggingface.co/your-username/my-awesome-model
cd my-awesome-model
# Modelldateien hinzufügen (z. B. PyTorch-Gewichte)
cp /pfad/zu/ihrem/modell/* .
# Commit und Push
git add .
git commit -m "Mein tolles Modell hinzugefügt"
git push
Option 2: Verwendung des Python SDK
from huggingface_hub import HfApi
api = HfApi()
api.upload_file(
path_or_fileobj="/pfad/zu/pytorch_model.bin",
path_in_repo="pytorch_model.bin",
repo_id="your-username/my-awesome-model",
repo_type="model",
)
Achtung: Große Dateien (>5 GB) können zeitlich begrenzt sein. Verwenden Sie huggingface_hub mit segmentierten Uploads:
from huggingface_hub import upload_file
upload_file(
path_or_fileobj="/pfad/zu/large-model.bin",
path_in_repo="large-model.bin",
repo_id="your-username/my-awesome-model",
repo_type="model",
chunk_size=10 * 1024 * 1024, # 10-MB-Segmente
)
7. Schnellstart mit der Transformers-Bibliothek
Die transformers-Bibliothek ist der einfachste Weg, Hugging Face-Modelle zu nutzen.
Transformers installieren
pip install --upgrade transformers
Beispiel: Textklassifizierung
from transformers import pipeline
classifier = pipeline("text-classification", model="distilbert-base-uncased-finetuned-sst-2-english")
result = classifier("Ich liebe Hugging Face Hub!")
print(result)
Erwartete Ausgabe:
[{'label': 'POSITIVE', 'score': 0.9998}]
Beispiel: Bildklassifizierung
from transformers import pipeline
classifier = pipeline("image-classification", model="google/vit-base-patch16-224")
result = classifier("https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/cat.png")
print(result)
Erwartete Ausgabe:
[{'label': 'tabby cat', 'score': 0.98}]
Achtung: Einige Modelle benötigen spezifische Abhängigkeiten (z. B. torch für PyTorch-Modelle). Installieren Sie diese mit:
pip install torch tensorflow # Für PyTorch/TensorFlow-Modelle
Was kommt als Nächstes?
- Modelle erkunden: Stöbern Sie auf huggingface.co/models und probieren Sie 3 Modelle in der Inference API aus.
- Space bereitstellen: Erstellen Sie eine Gradio-App für Ihr Lieblingsmodell (z. B. einen Chatbot oder Bildgenerator).
- Beitragen: Laden Sie ein feinabgestimmtes Modell oder einen Datensatz hoch, um es mit der Community zu teilen.
Für Teams, die KI-Workflows skalieren, bietet Hyperion Consulting End-to-End-Tools und Beratung, um Ihre Hugging Face-Bereitstellungen zu optimieren.
