HuggingFace模型下载极速指南:智星云节点加速方法

发布于:2025-09-11 ⋅ 阅读:(19) ⋅ 点赞:(0)

随着Transformer架构的广泛应用(如GPT、BERT),HuggingFace已成为AI开发者获取预训练模型的核心平台。然而,国内直接下载常面临速度慢、中断等问题。

本文将分享两种经实测有效的智星云平台版本的加速方案,高效完成模型下载。

首先,配置环境变量:

内网:

linux:

export HF_ENDPOINT=http://192.168.50.202:18090  

windows:在powershell中设定

env:HF_ENDPOINT = "http://192.168.50.202:18090"

公网:

linux:

export HF_ENDPOINT=http://223.109.239.18:18090 

windows:在powershell中设定

env:HF_ENDPOINT = "http://223.109.239.18:18090"

但上述办法只能在当前会话生效,如果需要永久生效还需进行下面的操作:

linux编辑 ~/.bashrc 加入

#内网加入
env:HF_ENDPOINT = "http://192.168.50.202:18090"


#公网加入
export HF_ENDPOINT=http://223.109.239.18:18090

执行 source ~/.bashrc 马上生效

当您需要下载hf的deepseek-ai/DeepSeek-R1模型时使用命令即可下载

huggingface-cli download deepseek-ai/DeepSeek-R1 

Tip:第一次下载如果没有命中缓存, 将会进行正常下载速度, 当命中缓存, 即可得到加速,享受内网传输速度。

当前已经cache的模型列表(持续更新更多模型)
Comfy-Org/Qwen-Image_ComfyUI
Qwen/Qwen3-4B
meta-llama/Llama-4-Scout-17B-16E-Instruct
Qwen/Qwen2.5-7B-Instruct
Qwen/Qwen3-4B-Base
Qwen/Qwen3-0.6B
black-forest-labs/FLUX.1-schnell
city96/Qwen-Image-gguf
Qwen/Qwen2.5-72B-Instruct
ggml-org/gpt-oss-20b-GGUF
Kijai/WanVideo_comfy
Qwen/Qwen3-Coder-480B-A35B-Instruct
Qwen/Qwen3-Coder-30B-A3B-Instruct
openai/gpt-oss-20b
distil-whisper/distil-large-v3.5
Qwen/Qwen2.5-14B-Instruct
black-forest-labs/FLUX.1-dev
black-forest-labs/FLUX.1-Kontext-dev

通过智星云提供的 hf-mirror.com 镜像节点,结合上述命令行技巧,可彻底解决HuggingFace下载难题。该服务已稳定支持GPT、Llama、ChatGLM等主流模型,为国内开发者节省大量时间成本。更多技术细节可访问智星云官方文档或huggingface开发者社区。


网站公告

今日签到

点亮在社区的每一天
去签到