Skip to main content

LangChain v0.3

最后更新:2024.09.14

更新内容

最新动态

在 0.2.x 版本的开发过程中,新增了以下功能:

  • 简化工具定义和使用方法。了解更多 这里
  • 添加了一个通用聊天模型构造函数
  • 添加了能够 分发自定义事件 的功能。
  • 发布了 LangGraph.js 0.2.0,并将其作为使用 LangChain.js 创建代理的推荐方式
  • 重新设计的集成文档和API参考。了解更多 这里

如何更新您的代码

如果您使用的是 langchain / @langchain/community / @langchain/core 0.0 或 0.1,我们建议您先 升级到 0.2

如果您正在使用 @langchain/langgraph,请升级到 @langchain/langgraph>=0.2.3。此操作适用于所有基础包的 0.2 或 0.3 版本。

以下是所有已发布的包的完整列表,以及我们建议在您的 package.json 中将版本约束升级到的内容。 任何现在支持 @langchain/core 0.3 的包都有一个次要版本的提升。

基础包

最新推荐 package.json 个约束
langchain0.3.0>=0.3.0 <0.4.0
@langchain/community0.3.0>=0.3.0 <0.4.0
@langchain/textsplitters0.1.0>=0.1.0 <0.2.0
@langchain/core0.3.0>=0.3.0 <0.4.0

下游包

最新推荐 package.json 个约束
@langchain/langgraph0.2.3>=0.2.3 <0.3

集成包

最新推荐 package.json 个约束
@langchain/anthropic0.3.0>=0.3.0 <0.4.0
@langchain/aws0.1.0>=0.1.0 <0.2.0
@langchain/azure-cosmosdb0.2.0>=0.2.0 <0.3.0
@langchain/azure-dynamic-sessions0.2.0>=0.2.0 <0.3.0
@langchain/baidu-qianfan0.1.0>=0.1.0 <0.2.0
@langchain/cloudflare0.1.0>=0.1.0 <0.2.0
@langchain/cohere0.3.0>=0.3.0 <0.4.0
@langchain/exa0.1.0>=0.1.0 <0.2.0
@langchain/google-genai0.1.0>=0.1.0 <0.2.0
@langchain/google-vertexai0.1.0>=0.1.0 <0.2.0
@langchain/google-vertexai-web0.1.0>=0.1.0 <0.2.0
@langchain/groq0.1.1>=0.1.1 <0.2.0
@langchain/mistralai0.1.0>=0.1.0 <0.2.0
@langchain/mixedbread-ai0.1.0>=0.1.0 <0.2.0
@langchain/mongodb0.1.0>=0.1.0 <0.2.0
@langchain/nomic0.1.0>=0.1.0 <0.2.0
@langchain/ollama0.1.0>=0.1.0 <0.2.0
@langchain/openai0.3.0>=0.3.0 <0.4.0
@langchain/pinecone0.1.0>=0.1.0 <0.2.0
@langchain/qdrant0.1.0>=0.1.0 <0.2.0
@langchain/redis0.1.0>=0.1.0 <0.2.0
@langchain/weaviate0.1.0>=0.1.0 <0.2.0
@langchain/yandex0.1.0>=0.1.0 <0.2.0

在您更新到这些包的最新版本后,如果尚未安装,请显式安装 @langchain/core

npm install @langchain/core

我们还建议检查您的锁定文件或运行 适当的包管理器命令,以确保您的包管理器只安装了一个版本的 @langchain/core

如果您当前在无服务器环境中运行代码(例如 Cloudflare Worker、边缘函数或 AWS Lambda 函数), 并且您正在使用 LangSmith 跟踪或其他回调,那么您需要 等待回调完成以确保它们在您的函数结束之前完成。 这是一个快速示例:

import { RunnableLambda } from "@langchain/core/runnables";
import { awaitAllCallbacks } from "@langchain/core/callbacks/promises";

const runnable = RunnableLambda.from(() => "hello!");

const customHandler = {
handleChainEnd: async () => {
await new Promise((resolve) => setTimeout(resolve, 2000));
console.log("Call finished");
},
};

const startTime = new Date().getTime();

await runnable.invoke({ number: "2" }, { callbacks: [customHandler] });

console.log(`Elapsed time: ${new Date().getTime() - startTime}ms`);

await awaitAllCallbacks();

console.log(`Final elapsed time: ${new Date().getTime() - startTime}ms`);
Elapsed time: 1ms
Call finished
Final elapsed time: 2164ms

您还可以将 LANGCHAIN_CALLBACKS_BACKGROUND 设置为 "false",以使所有回调阻塞:

process.env.LANGCHAIN_CALLBACKS_BACKGROUND = "false";

const startTimeBlocking = new Date().getTime();

await runnable.invoke({ number: "2" }, { callbacks: [customHandler] });

console.log(
`Initial elapsed time: ${new Date().getTime() - startTimeBlocking}ms`
);
Call finished
Initial elapsed time: 2002ms