0 准备
1)准备Ollama软件(注意:两个不是同一个东西)
详见上次的文章 Ollama通过gguf文件加载AI模型(补充:关于Ollama加载AI模型的补充)
2)准备ollama库
如果您还未安装ollama库,请使用pip安装:
pip install ollama
#1 ollama库的基本使用
import ollama# 普通输出(请先按照准备工作中的要求安装模型)back = ollama.chat(model="你的模型名称",messages=[{"role": "user","content": "生成一句简短的话"}], stream = False, # 是否流式输出)print(back)#流式输出back = ollama.chat(model="你的模型名称",messages=[{"role": "user","content"