Ollama Python 库
Ollama Python 库提供了将 Python 3.8+ 项目与 Ollama 集成的最简单方法。
先决条件
- 应该安装并运行 Ollama
- 拉取一个模型以与库一起使用:例如
ollama pull <model>
ollama pull llama3.2
- 有关可用模型的更多信息,请参阅 Ollama.com。
安装
pip install ollama
用法
from ollama import chat
from ollama import ChatResponse
response: ChatResponse = chat(model='llama3.2', messages=[
{
'role': 'user',
'content': 'Why is the sky blue?',
},
])
print(response['message']['content'])
# or access fields directly from the response object
print(response.message.content)
有关响应类型的更多信息,请参阅 _types.py。
流式处理响应
可以通过设置 来启用响应流。stream=True
from ollama import chat
stream = chat(
model=