要使用LangChain调用本地Ollama部署的Phi-4模型,你可以按照以下步骤操作:
1. 确保Ollama服务正在运行
首先确认你的Ollama服务已经在192.168.130.148上运行,并且已经下载了Phi-4模型:
ollama pull phi4
2. 安装必要的Python包
pip install langchain langchain-community
3. 使用LangChain连接Ollama的代码示例
from langchain_community.llms import Ollama
llm <