Ollama 常用命令大全
- 模型管理命令
这些命令用于拉取、查看、删除和复制模型。
命令 说明 示例
ollama pull <模型名> 从模型库下载指定模型。 ollama pull llama2
ollama list 列出本地已下载的所有模型。 ollama list
ollama show <模型名> 显示指定模型的详细信息,包括参数、模板等。 ollama show llama2
ollama cp <源模型名> <新模型名> 复制一个已存在的模型并创建一个新名称的副本。 ollama cp llama2 my-llama2
ollama rm <模型名> 删除本地指定的模型。 ollama rm llama2
- 运行与交互命令
这是最核心的命令,用于启动模型进行对话或生成内容。
命令 说明 示例
ollama run <模型名> 使用指定的模型启动交互式对话界面。 ollama run llama2
ollama run <模型名> [提示词] 直接向模型发送一条指令并获取非交互式回复。 ollama run llama2 "用Python写一个冒泡排序"
在交互模式下的常用操作:
多行输入:使用 """ 或 ''' 来开始和结束多行文本的输入。
查看命令:输入 /help 可以查看交互模式下的所有可用命令。
设置参数:输入 /set 命令可以临时修改参数(详见下文)。
退出交互:输入 /bye 或按下 Ctrl+D。
- 自定义模型与模型文件
当您想基于现有模型进行自定义(如调整参数、修改系统提示)时,需要创建 Modelfile。
基本步骤:
创建 Modelfile:新建一个名为 Modelfile 的文件。
编写内容:在文件中指定基础模型和自定义指令。
创建自定义模型:使用 ollama create 命令根据 Modelfile 构建新模型。
常用命令:
命令 说明 示例
ollama create <自定义模型名> 根据当前目录下的 Modelfile 文件创建一个新模型。 ollama create my-helper
ollama create <自定义模型名> -f <文件路径> 根据指定路径的 Modelfile 文件创建模型。 ollama create my-helper -f ./Modelfile
Modelfile 示例:
dockerfile
指定基础模型
FROM llama2
设置系统级别的提示词,定义模型的角色和行为
SYSTEM """你是一个乐于助人的编程助手,回答要简洁专业。"""
设置参数,例如温度值(控制随机性)
PARAMETER temperature 0.7
设置自定义的对话模板
TEMPLATE """{{ if .System }}<|system|>{{ .System }}<|end|>{{ end }}{{ if .Prompt }}<|user|>{{ .Prompt }}<|end|><|assistant|>{{ end }}"""
- 高级参数设置
您可以在 Modelfile 中永久设置参数,也可以在 交互模式 下使用 /set 命令临时设置。
常用参数:
参数 说明 示例(在 Modelfile 中) 示例(在交互模式中)
temperature 控制输出的随机性(0.1-2.0)。值越低越确定,值越高越有创意。 PARAMETER temperature 0.8 /set parameter temperature 0.8
num_ctx 设置模型上下文窗口的大小(即它能“记住”多少 tokens)。 PARAMETER num_ctx 4096 /set parameter num_ctx 4096
seed 设置随机种子,可以使模型的输出变得可重现。 PARAMETER seed 42 /set parameter seed 42
- 服务相关命令
命令 说明
ollama serve 启动 Ollama 服务。通常安装后会自动运行。
总结
这篇文章提供了一个非常实用的Ollama命令速查表。核心工作流可以概括为:
获取模型:使用 ollama pull 下载。
运行模型:使用 ollama run 进行对话或完成任务。
管理模型:使用 list, cp, rm 进行管理。
自定义模型:通过创建 Modelfile 并使用 ollama create 来定制专属模型。