Skip to main content
Open In ColabOpen on GitHub

如何将参数从一个步骤传递到下一个步骤

在组合包含多个步骤的链时,有时您希望将前一步骤的数据原样传递,作为后续步骤的输入。RunnablePassthrough 类允许您实现这一功能,通常与 RunnableParallel 配合使用,将数据传递到您构建的链中的后续步骤。

查看下面的示例:

%pip install -qU langchain langchain-openai

import os
from getpass import getpass

if "OPENAI_API_KEY" not in os.environ:
os.environ["OPENAI_API_KEY"] = getpass()
from langchain_core.runnables import RunnableParallel, RunnablePassthrough

runnable = RunnableParallel(
passed=RunnablePassthrough(),
modified=lambda x: x["num"] + 1,
)

runnable.invoke({"num": 1})
{'passed': {'num': 1}, 'modified': 2}

如上所示,passed键被调用并传入RunnablePassthrough(),因此它简单地传递了{'num': 1}

我们还在映射中设置了第二个键 modified。这使用了一个 lambda 函数来设置单个值,将 num 加 1,结果生成了值为 2modified 键。

检索示例

在下面的示例中,我们看到了一个更贴近实际应用场景的案例:我们在链中使用 RunnablePassthroughRunnableParallel 来正确格式化输入到提示词的内容:

from langchain_community.vectorstores import FAISS
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI, OpenAIEmbeddings

vectorstore = FAISS.from_texts(
["harrison worked at kensho"], embedding=OpenAIEmbeddings()
)
retriever = vectorstore.as_retriever()
template = """Answer the question based only on the following context:
{context}

Question: {question}
"""
prompt = ChatPromptTemplate.from_template(template)
model = ChatOpenAI()

retrieval_chain = (
{"context": retriever, "question": RunnablePassthrough()}
| prompt
| model
| StrOutputParser()
)

retrieval_chain.invoke("where did harrison work?")
'Harrison worked at Kensho.'

此处传递给提示词(prompt)的输入应为一个包含键"context"和"question"的映射。用户输入仅包含问题。因此,我们需要使用我们的检索器获取上下文,并将用户输入以"question"键的形式透传。其中的RunnablePassthrough允许我们将用户的问题传递给提示词和模型。

下一步

现在您已经了解了如何通过链传递数据,以帮助格式化在您的链中流动的数据。

要了解更多信息,请参阅本节中关于可运行对象的其它操操作指南。