Ollama的官方Python客户端【简单、小巧、实用】二、聊天与生成

liftword3周前 (12-08)技术文章13

喜欢的条友记得点赞、关注、转发、收藏,你们的支持就是我最大的动力源泉。

安装 LangChain 和 Ollama + Qwen2 看前期教程:

所有需要用到的程序安装,前面的教程都齐全了,忘记的可以直接点链接查看。


聊天模式和生成文本模式

# 导入ollama库
import ollama

# 调用generate函数生成文本,使用模型“qwen2:1.5”。
response = ollama.generate(model='qwen2:1.5b', prompt='你能为我做什么?')

# 调用chat函数生成文本,使用模型“qwen2:1.5”。
response1 = ollama.chat(model='qwen2:1.5b', messages=[{'role': 'user', 'content': '你能为我做什么?'}])

# 打印模型生成的回应。
print(response)
print(response1)

运行结果:

不难看出,chat和generate这两种方式,生成的结果还是有很大差异的,chat是侧重于聊天方式,而generate则是侧重于生成文本,且结果中的信息量也各有不同。