HuggingFace 加速下载
使用内网加速节点快速下载 HuggingFace 模型
概述
SynpixCloud GPU 实例内置了 HuggingFace 加速节点,可以实现内网极速传输,下载速度提升百倍以上。原本需要数小时下载的大模型,现在只需几分钟即可完成。
快速配置
在 GPU 实例终端中执行以下命令,即可启用加速下载:
export HF_ENDPOINT=http://192.168.50.202:18090配置完成后,使用 huggingface-cli 下载模型:
huggingface-cli download deepseek-ai/DeepSeek-R1永久生效
将环境变量添加到 ~/.bashrc 中,使配置永久生效:
echo 'export HF_ENDPOINT=http://192.168.50.202:18090' >> ~/.bashrc
source ~/.bashrcPython 代码中使用
在 Python 代码中设置环境变量:
import os
os.environ['HF_ENDPOINT'] = 'http://192.168.50.202:18090'
from transformers import AutoModel, AutoTokenizer
# 现在下载会自动使用加速节点
model = AutoModel.from_pretrained("bert-base-uncased")
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")预缓存模型仓库
我们已经预先缓存了一些热门模型,下载这些模型会更快。配置如下:
export HF_ENDPOINT="http://guest:guest@223.109.239.18:20281/repository/hf/"
export HF_HUB_ENABLE_HF_TRANSFER=0
export HF_HUB_ENABLE_HF_XET=1
export HF_HUB_DOWNLOAD_TIMEOUT=120
export HF_HUB_ETAG_TIMEOUT=1800已缓存的模型
可以通过浏览器访问 模型仓库 查看所有已缓存的模型。
部分已缓存模型列表:
| 模型 | 说明 |
|---|---|
| Qwen/Qwen3-235B-A22B | 通义千问 Qwen3 超大模型 |
| meta-llama/Llama-4-Scout-17B-16E | Meta Llama 4 |
| black-forest-labs/FLUX.1-dev | FLUX.1 图像生成 |
| google/gemma-3-27b-it | Google Gemma 3 |
| deepseek-ai/DeepSeek-R1 | DeepSeek R1 推理模型 |
网络配置对比
| 配置 | 下载速度 | 适用场景 |
|---|---|---|
| HuggingFace 官方 | ~125 KB/s | 不推荐 |
| hf-mirror.com 公共镜像 | ~3 MB/s | 备选方案 |
| 内网加速节点 | 50+ MB/s | 推荐使用 |
内网加速节点仅在 SynpixCloud GPU 实例内可用。如果从外部网络访问,请使用公网地址:http://223.109.239.18:18090
常见问题
下载失败怎么办?
- 确认环境变量已正确设置:
echo $HF_ENDPOINT - 检查网络连接:
ping 192.168.50.202 - 尝试重新下载
如何验证加速是否生效?
下载一个小模型测试:
time huggingface-cli download bert-base-uncased config.json如果配置正确,下载应该在几秒内完成。
支持
需要帮助?请联系我们:support@synpixcloud.com