Ollama的官方Python客户端【简单、小巧、实用】二、聊天与生成
喜欢的条友记得点赞、关注、转发、收藏,你们的支持就是我最大的动力源泉。
安装 LangChain 和 Ollama + Qwen2 看前期教程:
- Ubuntu24.04安装、运行Ollama详细教程(包括一些踩坑解决办法)
- 亮点多多、适合国人:阿里 Qwen2 模型(0.5B, 1.5B, 7B, 72B)全覆盖
- 「Python3.11.0」手把手教你安装最新版Python运行环境
- 【手把手包会】Python + Ollama + Qwen2 实现本地大语言模型简单调用
- Python启航:30天编程速成之旅(第2天)-IDE安装
所有需要用到的程序安装,前面的教程都齐全了,忘记的可以直接点链接查看。
聊天模式和生成文本模式
# 导入ollama库
import ollama
# 调用generate函数生成文本,使用模型“qwen2:1.5”。
response = ollama.generate(model='qwen2:1.5b', prompt='你能为我做什么?')
# 调用chat函数生成文本,使用模型“qwen2:1.5”。
response1 = ollama.chat(model='qwen2:1.5b', messages=[{'role': 'user', 'content': '你能为我做什么?'}])
# 打印模型生成的回应。
print(response)
print(response1)
运行结果:
不难看出,chat和generate这两种方式,生成的结果还是有很大差异的,chat是侧重于聊天方式,而generate则是侧重于生成文本,且结果中的信息量也各有不同。