AI21LLM
此服务已弃用。
请查看 此页面 以获取更新的 ChatAI21 对象。 :::
此示例介绍了如何使用 LangChain 与 AI21 Jurassic 模型进行交互。要使用 Jamba 模型,请改用 ChatAI21 对象。
在 LangChain 上查看 AI21 的完整模型和工具列表。
安装
!pip install -qU langchain-ai21
环境设置
我们需要获取一个 AI21 API 密钥 并设置环境变量 AI21_API_KEY:
import os
from getpass import getpass
if "AI21_API_KEY" not in os.environ:
os.environ["AI21_API_KEY"] = getpass()
使用
from langchain_ai21 import AI21LLM
from langchain_core.prompts import PromptTemplate
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)
model = AI21LLM(model="j2-ultra")
chain = prompt | model
chain.invoke({"question": "What is LangChain?"})
API 参考:PromptTemplate
'\nLangChain is a (database)\nLangChain is a database for storing and processing documents'
AI21 上下文回答
你可以使用 AI21 的上下文答案模型来接收文本或文档,作为上下文,并根据此上下文回答问题。
这意味着如果问题的答案不在文档中,模型会指出这一点(而不是提供一个错误的答案)。
from langchain_ai21 import AI21ContextualAnswers
tsm = AI21ContextualAnswers()
response = tsm.invoke(input={"context": "Your context", "question": "Your question"})
你也可以将其与链和输出解析器以及向量数据库一起使用。
from langchain_ai21 import AI21ContextualAnswers
from langchain_core.output_parsers import StrOutputParser
tsm = AI21ContextualAnswers()
chain = tsm | StrOutputParser()
response = chain.invoke(
{"context": "Your context", "question": "Your question"},
)
API 参考:StrOutputParser