你遇到的问题是在执行 ollama pull qwen2.5:7b 命令时,因为网络连接超时导致无法拉取模型清单,核心原因是无法访问 Ollama 官方的模型仓库服务器。

解决方案:使用国内镜像源

最直接有效的方法是配置 Ollama 使用国内的镜像源,以下是详细的操作步骤:

1. 临时生效(仅当前终端会话)

在执行 pull 命令前,先设置环境变量指向国内镜像:

# Windows 命令提示符(cmd)
set OLLAMA_HOST=0.0.0.0
set OLLAMA_MODEL_SERVER=https://mirror.aiollama.com

# 然后执行拉取命令
ollama pull qwen2.5:7b

2. 永久生效(推荐)

为了避免每次都要设置环境变量,你可以将镜像源配置为系统环境变量:

  1. 按下 Win + R,输入 sysdm.cpl 并回车,打开「系统属性」窗口

  2. 切换到「高级」选项卡,点击「环境变量」

  3. 在「系统变量」区域点击「新建」,添加以下两个变量:

    • 变量名:OLLAMA_HOST,变量值:0.0.0.0
    • 变量名:OLLAMA_MODEL_SERVER,变量值:https://mirror.aiollama.com
  4. 点击「确定」保存,重启终端 / 命令提示符 后生效

  5. 重新执行 ollama pull qwen2.5:7b

3. 备选镜像源(如果上述源不可用)

如果第一个镜像源仍有问题,可以尝试以下替代地址:

# 备选1:ModelFusion 镜像
set OLLAMA_MODEL_SERVER=https://ollama.modelfusion.cn
# 备选2:Another 镜像
set OLLAMA_MODEL_SERVER=https://ollama.cn

额外排查步骤

如果配置镜像后仍超时,可检查以下点:

  1. 确保网络可以正常访问外网(可尝试 ping mirror.aiollama.com 测试连通性)

  2. 关闭电脑的防火墙 / 杀毒软件,或允许 Ollama 程序通过防火墙

  3. 如果你使用代理,需要确保终端也配置了正确的代理:

    # 假设你的代理地址是 127.0.0.1:7890
    set HTTP_PROXY=http://127.0.0.1:7890
    set HTTPS_PROXY=http://127.0.0.1:7890
    

总结

  1. 核心问题:网络无法访问 Ollama 官方服务器导致超时
  2. 最优方案:配置 OLLAMA_MODEL_SERVER 环境变量使用国内镜像源
  3. 额外保障:检查网络连通性、防火墙设置或代理配置

配置完成后重新执行拉取命令,就能正常下载 qwen2.5:7b 模型了。