HuggingFace 加速下载

使用内网加速节点快速下载 HuggingFace 模型

概述

SynpixCloud GPU 实例内置了 HuggingFace 加速节点,可以实现内网极速传输,下载速度提升百倍以上。原本需要数小时下载的大模型,现在只需几分钟即可完成。

快速配置

在 GPU 实例终端中执行以下命令,即可启用加速下载:

export HF_ENDPOINT=http://192.168.50.202:18090

配置完成后,使用 huggingface-cli 下载模型:

huggingface-cli download deepseek-ai/DeepSeek-R1

永久生效

将环境变量添加到 ~/.bashrc 中,使配置永久生效:

echo 'export HF_ENDPOINT=http://192.168.50.202:18090' >> ~/.bashrc
source ~/.bashrc

Python 代码中使用

在 Python 代码中设置环境变量:

import os
os.environ['HF_ENDPOINT'] = 'http://192.168.50.202:18090'

from transformers import AutoModel, AutoTokenizer

# 现在下载会自动使用加速节点
model = AutoModel.from_pretrained("bert-base-uncased")
tokenizer = AutoTokenizer.from_pretrained("bert-base-uncased")

预缓存模型仓库

我们已经预先缓存了一些热门模型,下载这些模型会更快。配置如下:

export HF_ENDPOINT="http://guest:guest@223.109.239.18:20281/repository/hf/"
export HF_HUB_ENABLE_HF_TRANSFER=0
export HF_HUB_ENABLE_HF_XET=1
export HF_HUB_DOWNLOAD_TIMEOUT=120
export HF_HUB_ETAG_TIMEOUT=1800

已缓存的模型

可以通过浏览器访问 模型仓库 查看所有已缓存的模型。

部分已缓存模型列表:

模型说明
Qwen/Qwen3-235B-A22B通义千问 Qwen3 超大模型
meta-llama/Llama-4-Scout-17B-16EMeta Llama 4
black-forest-labs/FLUX.1-devFLUX.1 图像生成
google/gemma-3-27b-itGoogle Gemma 3
deepseek-ai/DeepSeek-R1DeepSeek R1 推理模型

网络配置对比

配置下载速度适用场景
HuggingFace 官方~125 KB/s不推荐
hf-mirror.com 公共镜像~3 MB/s备选方案
内网加速节点50+ MB/s推荐使用

内网加速节点仅在 SynpixCloud GPU 实例内可用。如果从外部网络访问,请使用公网地址:http://223.109.239.18:18090

常见问题

下载失败怎么办?

  1. 确认环境变量已正确设置:echo $HF_ENDPOINT
  2. 检查网络连接:ping 192.168.50.202
  3. 尝试重新下载

如何验证加速是否生效?

下载一个小模型测试:

time huggingface-cli download bert-base-uncased config.json

如果配置正确,下载应该在几秒内完成。

支持

需要帮助?请联系我们:support@synpixcloud.com