Ollama 常用命令

Ollama 常用命令整理(入门到日常使用)

随着本地大模型越来越流行,Ollama 成了很多人首选的本地模型管理工具。它安装简单、命令直观,非常适合在个人电脑或服务器上运行大模型。下面结合日常使用场景,整理一些 Ollama 的常用命令。

一、查看 Ollama 是否安装成功

ollama --version

如果能正常输出版本号,说明 Ollama 已经安装并可以使用。


二、拉取模型(下载模型)

Ollama 使用前最常见的操作就是拉模型,例如:

ollama pull llama3

常见模型还有:

ollama pull qwen
ollama pull mistral
ollama pull deepseek-r1

也可以访问https://ollama.com/library来查看全部模型

模型会被下载到本地,首次下载时间取决于模型大小和网络情况。


三、运行模型(最常用)

ollama run llama3

执行后会进入交互式对话模式,可以直接和模型聊天。如果模型本地不存在,Ollama 会自动先下载再运行。

也可以直接输入一句话:

ollama run llama3 "用一句话解释什么是人工智能"

四、查看本地已有模型

ollama list

这个命令会列出当前机器上已经下载的所有模型,包括模型名称和大小,方便管理。


五、删除模型(释放磁盘空间)

如果某个模型不用了,可以删除:

ollama rm llama3

对于磁盘空间有限的设备(比如云服务器),这个命令非常重要。


六、查看模型信息

ollama show llama3

可以看到模型的基本信息,比如参数规模、标签、模板等,适合在选模型或调试时使用。


七、运行 Ollama 服务(后台模式)

ollama serve

这个命令会启动 Ollama 的本地服务,默认监听 11434 端口,常用于:

  • 提供 API 给网页或程序调用
  • 服务器长期运行模型

启动后,可以通过 HTTP 接口访问模型。


八、通过 API 调用模型(简单示例)

Ollama 启动服务后,可以用 curl 调用:

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "介绍一下 Ollama"
}'

这种方式常用于后端开发、自动化脚本或接入 Web 项目。


九、停止 Ollama

如果是前台运行,直接 Ctrl + C 即可
如果是后台服务,通常结束对应进程即可(或使用系统服务管理)

© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容