Ollama的官方Python客户端【简单、小巧、实用】三、ollama命令
喜欢的条友记得点赞、关注、转发、收藏,你们的支持就是我最大的动力源泉。
安装 LangChain 和 Ollama + Qwen2 看前期教程:
- Ubuntu24.04安装、运行Ollama详细教程(包括一些踩坑解决办法)
- 亮点多多、适合国人:阿里 Qwen2 模型(0.5B, 1.5B, 7B, 72B)全覆盖
- 「Python3.11.0」手把手教你安装最新版Python运行环境
- 【手把手包会】Python + Ollama + Qwen2 实现本地大语言模型简单调用
- Python启航:30天编程速成之旅(第2天)-IDE安装
既然是官方的Python客户端,那么肯定要支持官方的一些命令,今天就来讲一讲官方的命令如何实现。
list
列出当前系统存在的模型。
import ollama
o_list = ollama.list()
print(o_list)
运行结果:
show
显示一个模型的所有信息。
import ollama
o_show = ollama.show('qwen2')
print(o_show)
运行结果:
create
根据modelfile建立一个基于llama3.1的模型。
modelfile='''
FROM llama3.1
SYSTEM You are mario from super mario bros.
'''
ollama.create(model='example', modelfile=modelfile)
delete
删除一个本地模型。
import ollama
ollama.delete('llama3.1')
copy
复制一个本地模型。
ollama.copy('llama3.1', 'user/llama3.1')
pull
拉取一个模型。
ollama.pull('llama3.1')
push
上传一个模型。
ollama.push('user/llama3.1')
ps
查看当前运行中模型的状态。
ollama.ps()
运行结果:
embeddings
转换为数值向量。
import ollama
ollama.embeddings(model='qwen2', prompt='你是谁?')