你遇到的问题是在执行 ollama pull qwen2.5:7b 命令时,因为网络连接超时导致无法拉取模型清单,核心原因是无法访问 Ollama 官方的模型仓库服务器。
解决方案:使用国内镜像源
最直接有效的方法是配置 Ollama 使用国内的镜像源,以下是详细的操作步骤:
1. 临时生效(仅当前终端会话)
在执行 pull 命令前,先设置环境变量指向国内镜像:
# Windows 命令提示符(cmd)
set OLLAMA_HOST=0.0.0.0
set OLLAMA_MODEL_SERVER=https://mirror.aiollama.com
# 然后执行拉取命令
ollama pull qwen2.5:7b
2. 永久生效(推荐)
为了避免每次都要设置环境变量,你可以将镜像源配置为系统环境变量:
按下
Win + R,输入sysdm.cpl并回车,打开「系统属性」窗口切换到「高级」选项卡,点击「环境变量」
在「系统变量」区域点击「新建」,添加以下两个变量:
- 变量名:
OLLAMA_HOST,变量值:0.0.0.0 - 变量名:
OLLAMA_MODEL_SERVER,变量值:https://mirror.aiollama.com
- 变量名:
点击「确定」保存,重启终端 / 命令提示符 后生效
重新执行
ollama pull qwen2.5:7b
3. 备选镜像源(如果上述源不可用)
如果第一个镜像源仍有问题,可以尝试以下替代地址:
# 备选1:ModelFusion 镜像
set OLLAMA_MODEL_SERVER=https://ollama.modelfusion.cn
# 备选2:Another 镜像
set OLLAMA_MODEL_SERVER=https://ollama.cn
额外排查步骤
如果配置镜像后仍超时,可检查以下点:
确保网络可以正常访问外网(可尝试 ping
mirror.aiollama.com测试连通性)关闭电脑的防火墙 / 杀毒软件,或允许 Ollama 程序通过防火墙
如果你使用代理,需要确保终端也配置了正确的代理:
# 假设你的代理地址是 127.0.0.1:7890 set HTTP_PROXY=http://127.0.0.1:7890 set HTTPS_PROXY=http://127.0.0.1:7890
总结
- 核心问题:网络无法访问 Ollama 官方服务器导致超时
- 最优方案:配置
OLLAMA_MODEL_SERVER环境变量使用国内镜像源 - 额外保障:检查网络连通性、防火墙设置或代理配置
配置完成后重新执行拉取命令,就能正常下载 qwen2.5:7b 模型了。
评论
评论加载中…