Skip to main content
Open on GitHub

GPT4All

此页面介绍如何在LangChain中使用GPT4All包装器。教程分为两部分:安装和设置,然后是使用示例。

安装与设置

  • 使用 pip install gpt4all 安装 Python 包
  • 下载一个 GPT4All 模型 并将其放置在您指定的目录中

在此示例中,我们使用 mistral-7b-openorca.Q4_0.gguf

mkdir models
wget https://gpt4all.io/models/gguf/mistral-7b-openorca.Q4_0.gguf -O models/mistral-7b-openorca.Q4_0.gguf

使用

GPT4All

要使用 GPT4All 包装器,您需要提供预训练模型文件的路径以及该模型的配置。

from langchain_community.llms import GPT4All

# Instantiate the model. Callbacks support token-wise streaming
model = GPT4All(model="./models/mistral-7b-openorca.Q4_0.gguf", n_threads=8)

# Generate text
response = model.invoke("Once upon a time, ")
API 参考:GPT4All

您还可以自定义生成参数,例如 n_predicttemptop_ptop_k 及其他参数。

要流式传输模型的预测结果,请添加一个回调管理器。

from langchain_community.llms import GPT4All
from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler

# There are many CallbackHandlers supported, such as
# from langchain.callbacks.streamlit import StreamlitCallbackHandler

callbacks = [StreamingStdOutCallbackHandler()]
model = GPT4All(model="./models/mistral-7b-openorca.Q4_0.gguf", n_threads=8)

# Generate text. Tokens are streamed through the callback manager.
model.invoke("Once upon a time, ", callbacks=callbacks)

模型文件

您可以从GPT4All客户端下载模型文件。您可以从GPT4All网站下载客户端。

有关此内容的更详细说明,请参见 这个笔记本