Ollama的官方Python客户端【简单、小巧、实用】三、ollama命令

liftword3周前 (12-08)技术文章13

喜欢的条友记得点赞、关注、转发、收藏,你们的支持就是我最大的动力源泉。

安装 LangChain 和 Ollama + Qwen2 看前期教程:


既然是官方的Python客户端,那么肯定要支持官方的一些命令,今天就来讲一讲官方的命令如何实现。

list

列出当前系统存在的模型。

import ollama

o_list = ollama.list()

print(o_list)

运行结果:

show

显示一个模型的所有信息。

import ollama

o_show = ollama.show('qwen2')

print(o_show)

运行结果:

create

根据modelfile建立一个基于llama3.1的模型。

modelfile='''
FROM llama3.1
SYSTEM You are mario from super mario bros.
'''

ollama.create(model='example', modelfile=modelfile)

delete

删除一个本地模型。

import ollama

ollama.delete('llama3.1')

copy

复制一个本地模型。

ollama.copy('llama3.1', 'user/llama3.1')

pull

拉取一个模型。

ollama.pull('llama3.1')

push

上传一个模型。

ollama.push('user/llama3.1')

ps

查看当前运行中模型的状态。

ollama.ps()

运行结果:

embeddings

转换为数值向量。

import ollama

ollama.embeddings(model='qwen2', prompt='你是谁?')