Skip to main content
Open In ColabOpen on GitHub

AI21LLM

此服务已弃用。

请查看 此页面 以获取更新的 ChatAI21 对象。 :::

此示例介绍了如何使用 LangChain 与 AI21 Jurassic 模型进行交互。要使用 Jamba 模型,请改用 ChatAI21 对象

在 LangChain 上查看 AI21 的完整模型和工具列表。

安装

!pip install -qU langchain-ai21

环境设置

我们需要获取一个 AI21 API 密钥 并设置环境变量 AI21_API_KEY

import os
from getpass import getpass

if "AI21_API_KEY" not in os.environ:
os.environ["AI21_API_KEY"] = getpass()

使用

from langchain_ai21 import AI21LLM
from langchain_core.prompts import PromptTemplate

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

model = AI21LLM(model="j2-ultra")

chain = prompt | model

chain.invoke({"question": "What is LangChain?"})
API 参考:PromptTemplate
'\nLangChain is a (database)\nLangChain is a database for storing and processing documents'

AI21 上下文回答

你可以使用 AI21 的上下文答案模型来接收文本或文档,作为上下文,并根据此上下文回答问题。

这意味着如果问题的答案不在文档中,模型会指出这一点(而不是提供一个错误的答案)。

from langchain_ai21 import AI21ContextualAnswers

tsm = AI21ContextualAnswers()

response = tsm.invoke(input={"context": "Your context", "question": "Your question"})

你也可以将其与链和输出解析器以及向量数据库一起使用。

from langchain_ai21 import AI21ContextualAnswers
from langchain_core.output_parsers import StrOutputParser

tsm = AI21ContextualAnswers()
chain = tsm | StrOutputParser()

response = chain.invoke(
{"context": "Your context", "question": "Your question"},
)
API 参考:StrOutputParser