Ollama 常用命令整理(入门到日常使用)
随着本地大模型越来越流行,Ollama 成了很多人首选的本地模型管理工具。它安装简单、命令直观,非常适合在个人电脑或服务器上运行大模型。下面结合日常使用场景,整理一些 Ollama 的常用命令。
一、查看 Ollama 是否安装成功
ollama --version
如果能正常输出版本号,说明 Ollama 已经安装并可以使用。
二、拉取模型(下载模型)
Ollama 使用前最常见的操作就是拉模型,例如:
ollama pull llama3
常见模型还有:
ollama pull qwen
ollama pull mistral
ollama pull deepseek-r1
也可以访问https://ollama.com/library来查看全部模型
模型会被下载到本地,首次下载时间取决于模型大小和网络情况。
三、运行模型(最常用)
ollama run llama3
执行后会进入交互式对话模式,可以直接和模型聊天。如果模型本地不存在,Ollama 会自动先下载再运行。
也可以直接输入一句话:
ollama run llama3 "用一句话解释什么是人工智能"
四、查看本地已有模型
ollama list
这个命令会列出当前机器上已经下载的所有模型,包括模型名称和大小,方便管理。
五、删除模型(释放磁盘空间)
如果某个模型不用了,可以删除:
ollama rm llama3
对于磁盘空间有限的设备(比如云服务器),这个命令非常重要。
六、查看模型信息
ollama show llama3
可以看到模型的基本信息,比如参数规模、标签、模板等,适合在选模型或调试时使用。
七、运行 Ollama 服务(后台模式)
ollama serve
这个命令会启动 Ollama 的本地服务,默认监听 11434 端口,常用于:
- 提供 API 给网页或程序调用
- 服务器长期运行模型
启动后,可以通过 HTTP 接口访问模型。
八、通过 API 调用模型(简单示例)
Ollama 启动服务后,可以用 curl 调用:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "介绍一下 Ollama"
}'
这种方式常用于后端开发、自动化脚本或接入 Web 项目。
九、停止 Ollama
如果是前台运行,直接 Ctrl + C 即可
如果是后台服务,通常结束对应进程即可(或使用系统服务管理)
© 版权声明
本站文章皆由CC-4.0协议发布,如无标注转载则为原创,转载请注明出处。
THE END













暂无评论内容