AI 模型本地一键部署 超详细步骤(Ollama 通用版,Windows/Mac 都能用)
2026/5/8 12:09:11 网站建设 项目流程

一、准备工作

  1. 电脑内存至少 16G,有 N 卡独显更好(没有也能 CPU 跑)
  2. 关闭多余后台,预留磁盘空间10G 以上

二、第一步:下载安装 Ollama

  1. 官网:https://ollama.com
  2. 直接点下载,对应自己系统:
    • Windows 版 / Mac 版 / Linux 版
  3. 双击安装,默认下一步安装即可,无需改路径

三、第二步:打开命令终端

  • Windows:按Win+R输入cmd回车
  • Mac:打开「终端」

四、第三步:一键拉取并运行模型(核心命令)

复制任意一条粘贴回车,自动下载、自动部署、直接可用:

常用推荐模型(直接复制用)

  1. 通义千问 7B(全能好用)

bash

运行

ollama run qwen:7b
  1. Llama3 8B(海外最强开源)

bash

运行

ollama run llama3:8b
  1. 智谱 GLM 中文适配强

bash

运行

ollama run glm3
  1. 极简轻量,低配电脑专用

bash

运行

ollama run qwen:3b

执行过程

  1. 第一次运行自动下载模型权重,等待进度走完
  2. 下载完自动进入对话界面,直接打字就能聊天
  3. 全程离线本地运行,不上云、不泄露数据

五、常用基础命令(必记)

  • 退出对话:输入/bye
  • 查看已装模型:ollama list
  • 卸载模型:ollama rm 模型名
  • 后台启动服务,不开终端也能用:直接后台挂着就行

六、进阶:配可视化 UI(网页版界面)

不想用黑框命令行,装个网页可视化面板,鼠标点着用:推荐Open WebUI,一条命令一键部署:

bash

运行

ollama run open-webui

装好后浏览器打开本地地址,就能像 ChatGPT 一样网页聊天、切换模型、建知识库。

七、补充说明

  1. 模型只下载一次,下次直接命令启动,不用重复下载
  2. 低配电脑选3B,中端7B,高配14B
  3. 全程纯本地,无网络也能使用,文档、文案、编程都能离线用

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询