Astra DB 向量存储
本页面提供了将 Astra DB 用作向量存储的快速入门指南。
DataStax Astra DB is a serverless AI-ready database built on
Apache Cassandra®and made conveniently available through an easy-to-use JSON API.
设置
依赖项
使用该集成需要 langchain-astradb 合作伙伴包:
!pip install \
"langchain>=0.3.23,<0.4" \
"langchain-core>=0.3.52,<0.4" \
"langchain-astradb>=0.6,<0.7"
凭据
为了使用 AstraDB 向量存储,您必须首先前往 AstraDB 网站,创建一个账户,然后创建一个新的数据库——初始化可能需要几分钟时间。
数据库初始化完成后,请获取您的连接密钥,您稍后将需要用到它们。这些密钥包括:
- 一个
API Endpoint,例如"https://01234567-89ab-cdef-0123-456789abcdef-us-east1.apps.astra.datastax.com/" - 和一个
Database Token,例如"AstraCS:aBcD123......"
您可以选择提供一个 keyspace(在 LangChain 组件中称为“命名空间”),您可以在数据库仪表板的 Data Explorer 选项卡中进行管理。如果您愿意,可以在下面的提示中将其留空,并使用默认键空间。
import getpass
ASTRA_DB_API_ENDPOINT = input("ASTRA_DB_API_ENDPOINT = ").strip()
ASTRA_DB_APPLICATION_TOKEN = getpass.getpass("ASTRA_DB_APPLICATION_TOKEN = ").strip()
desired_keyspace = input("(optional) ASTRA_DB_KEYSPACE = ").strip()
if desired_keyspace:
ASTRA_DB_KEYSPACE = desired_keyspace
else:
ASTRA_DB_KEYSPACE = None
ASTRA_DB_API_ENDPOINT = https://01234567-89ab-cdef-0123-456789abcdef-us-east1.apps.astra.datastax.com
ASTRA_DB_APPLICATION_TOKEN = ········
(optional) ASTRA_DB_KEYSPACE =
如果您希望获得一流的模型调用自动追踪功能,还可以通过取消注释以下代码来设置您的 LangSmith API 密钥:
# os.environ["LANGSMITH_API_KEY"] = getpass.getpass("Enter your LangSmith API key: ")
# os.environ["LANGSMITH_TRACING"] = "true"
初始化
创建 Astra DB 向量存储有多种方式:
方法 1:显式嵌入
您可以单独实例化一个 langchain_core.embeddings.Embeddings 类,并将其传递给 AstraDBVectorStore 构造函数,就像大多数其他 LangChain 向量存储一样。
方法 2:服务器端嵌入('vectorize')
或者,您可以使用 Astra DB 的服务器端嵌入计算功能('vectorize'),并在为存储创建服务器基础设施时只需指定一个嵌入模型。随后,嵌入计算将在数据库内的读取和写入操作中完全处理。(若要通过此方法继续操作,您必须如文档所述,为您的数据库启用所需的嵌入集成。)
方法 3:从现有集合中自动检测
您可能已经在 Astra DB 中拥有一个集合,该集合可能已通过其他方式(例如通过 Astra UI 或第三方应用程序)预填充了数据,而您只想开始在 LangChain 中对其进行查询。在这种情况下,正确的做法是在向量存储构造函数中启用autodetect_collection模式,并让该类自行处理细节。(当然,如果您的集合没有"vectorize",您仍然需要提供一个Embeddings对象)。
关于“混合搜索”的说明
Astra DB 向量存储支持在向量搜索中进行元数据搜索;此外,0.6 版本通过 findAndRerank 数据库原语引入了对混合搜索的完整支持:文档会同时从向量相似性搜索和基于关键词的(“词汇”)搜索中检索,然后通过重排序模型进行合并。这种完全由服务器端处理的搜索策略可以提高结果的准确性,从而提升您的 RAG 应用的质量。只要可用,向量存储会自动使用混合搜索(不过如果您愿意,也可以手动控制它)。
附加信息
AstraDBVectorStore 可以通过多种方式进行配置;请参阅 API 参考 获取完整指南,其中包括异步初始化、非 Astra-DB 数据库、自定义索引允许/拒绝列表、手动混合搜索控制等内容。
显式嵌入初始化(方法 1)
使用显式嵌入类实例化我们的向量存储:
pip install -qU langchain-openai
import getpass
import os
if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")
from langchain_openai import OpenAIEmbeddings
embeddings = OpenAIEmbeddings(model="text-embedding-3-large")
from langchain_astradb import AstraDBVectorStore
vector_store_explicit_embeddings = AstraDBVectorStore(
collection_name="astra_vector_langchain",
embedding=embeddings,
api_endpoint=ASTRA_DB_API_ENDPOINT,
token=ASTRA_DB_APPLICATION_TOKEN,
namespace=ASTRA_DB_KEYSPACE,
)
服务器端嵌入初始化("vectorize",方法 2)
在此示例代码中,假设您已具备
- 已在您的 Astra DB 组织中启用 OpenAI 集成,
- 已添加一个名为
"OPENAI_API_KEY"的 API 密钥到集成中,并将其作用域限定为您正在使用的数据库。
如需更多详情,包括切换提供商/模型的说明,请参阅文档。
from astrapy.info import VectorServiceOptions
openai_vectorize_options = VectorServiceOptions(
provider="openai",
model_name="text-embedding-3-small",
authentication={
"providerKey": "OPENAI_API_KEY",
},
)
vector_store_integrated_embeddings = AstraDBVectorStore(
collection_name="astra_vectorize_langchain",
api_endpoint=ASTRA_DB_API_ENDPOINT,
token=ASTRA_DB_APPLICATION_TOKEN,
namespace=ASTRA_DB_KEYSPACE,
collection_vector_service_options=openai_vectorize_options,
)
自动检测初始化(方法 3)
如果集合已存在于数据库中且您的 AstraDBVectorStore 需要使用它(用于读取和写入),则可以使用此模式。LangChain 组件将检查该集合并确定详细信息。
如果集合已由 LangChain 以外的工具创建并(最重要的是)填充,例如数据是通过 Astra DB Web 界面摄入的,则推荐采用此方法。
自动检测模式无法与集合设置(例如相似度度量等)共存;另一方面,如果未使用服务器端嵌入,则仍需向构造函数传递一个Embeddings对象。
在以下示例代码中,我们将“自动检测”由上述方法 2("vectorize")创建的同一集合。因此,无需提供 Embeddings 对象。
vector_store_autodetected = AstraDBVectorStore(
collection_name="astra_vectorize_langchain",
api_endpoint=ASTRA_DB_API_ENDPOINT,
token=ASTRA_DB_APPLICATION_TOKEN,
namespace=ASTRA_DB_KEYSPACE,
autodetect_collection=True,
)
管理向量存储
创建向量存储后,您可以通过添加和删除不同条目来与其交互。
无论采用何种初始化方法,与向量存储的所有交互都将进行:如果您愿意,请调整以下单元格,以选择您已创建并想要测试的向量存储。
# If desired, uncomment a different line here:
# vector_store = vector_store_explicit_embeddings
vector_store = vector_store_integrated_embeddings
# vector_store = vector_store_autodetected
将项目添加到向量存储
使用 add_documents 方法将文档添加到向量存储中。
"id"字段可以单独提供,作为匹配 ids=[...] 参数传递给 add_documents,甚至完全可以省略,让存储区自动生成 ID。
from langchain_core.documents import Document
documents_to_insert = [
Document(
page_content="ZYX, just another tool in the world, is actually my agent-based superhero",
metadata={"source": "tweet"},
id="entry_00",
),
Document(
page_content="I had chocolate chip pancakes and scrambled eggs "
"for breakfast this morning.",
metadata={"source": "tweet"},
id="entry_01",
),
Document(
page_content="The weather forecast for tomorrow is cloudy and "
"overcast, with a high of 62 degrees.",
metadata={"source": "news"},
id="entry_02",
),
Document(
page_content="Building an exciting new project with LangChain "
"- come check it out!",
metadata={"source": "tweet"},
id="entry_03",
),
Document(
page_content="Robbers broke into the city bank and stole "
"$1 million in cash.",
metadata={"source": "news"},
id="entry_04",
),
Document(
page_content="Thanks to her sophisticated language skills, the agent "
"managed to extract strategic information all right.",
metadata={"source": "tweet"},
id="entry_05",
),
Document(
page_content="Is the new iPhone worth the price? Read this "
"review to find out.",
metadata={"source": "website"},
id="entry_06",
),
Document(
page_content="The top 10 soccer players in the world right now.",
metadata={"source": "website"},
id="entry_07",
),
Document(
page_content="LangGraph is the best framework for building stateful, "
"agentic applications!",
metadata={"source": "tweet"},
id="entry_08",
),
Document(
page_content="The stock market is down 500 points today due to "
"fears of a recession.",
metadata={"source": "news"},
id="entry_09",
),
Document(
page_content="I have a bad feeling I am going to get deleted :(",
metadata={"source": "tweet"},
id="entry_10",
),
]
vector_store.add_documents(documents=documents_to_insert)
['entry_00',
'entry_01',
'entry_02',
'entry_03',
'entry_04',
'entry_05',
'entry_06',
'entry_07',
'entry_08',
'entry_09',
'entry_10']
从向量存储中删除项目
通过使用 delete 函数按 ID 删除项目。
vector_store.delete(ids=["entry_10", "entry_02"])
True
查询向量存储
一旦向量存储被创建并填充数据,您就可以对其进行查询(例如,作为您的链或代理的一部分)。
直接查询
相似性搜索
搜索与所提供文本相似的文档,并可根据需要添加元数据过滤器:
results = vector_store.similarity_search(
"LangChain provides abstractions to make working with LLMs easy",
k=3,
filter={"source": "tweet"},
)
for res in results:
print(f'* "{res.page_content}", metadata={res.metadata}')
* "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* "Thanks to her sophisticated language skills, the agent managed to extract strategic information all right.", metadata={'source': 'tweet'}
带分数的相似性搜索
您还可以返回相似度得分:
results = vector_store.similarity_search_with_score(
"LangChain provides abstractions to make working with LLMs easy",
k=3,
filter={"source": "tweet"},
)
for res, score in results:
print(f'* [SIM={score:.2f}] "{res.page_content}", metadata={res.metadata}')
* [SIM=0.71] "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* [SIM=0.70] "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* [SIM=0.61] "Thanks to her sophisticated language skills, the agent managed to extract strategic information all right.", metadata={'source': 'tweet'}
指定不同的关键词查询(需要混合搜索)
Note: this cell can be run only if the collection supports the find-and-rerank command and if the vector store is aware of this fact.
如果向量存储使用的是支持混合检索的集合,并且已检测到这一事实,那么在执行搜索时,默认情况下它将利用该功能。
在这种情况下,在查找和重排序过程中,向量相似性和基于词汇的检索步骤会使用相同的查询文本,除非您显式为后者提供不同的查询:
results = vector_store_autodetected.similarity_search(
"LangChain provides abstractions to make working with LLMs easy",
k=3,
filter={"source": "tweet"},
lexical_query="agent",
)
for res in results:
print(f'* "{res.page_content}", metadata={res.metadata}')
* "Building an exciting new project with LangChain - come check it out!", metadata={'source': 'tweet'}
* "LangGraph is the best framework for building stateful, agentic applications!", metadata={'source': 'tweet'}
* "ZYX, just another tool in the world, is actually my agent-based superhero", metadata={'source': 'tweet'}
上述示例硬编码了“自动检测”的向量存储,该存储肯定已经检查了集合并确定了是否可用混合搜索。另一种选择是显式地向构造函数提供混合搜索参数(有关更多详情/示例,请参阅 API 参考)。
其他搜索方法
本笔记本未涵盖其他多种搜索方法,例如 MMR 搜索和向量搜索。
有关AstraDBVectorStore中可用搜索模式的完整列表,请查看API 参考。
通过转换为检索器进行查询
您还可以将向量存储转换为检索器,以便在链中更轻松地使用。
将向量存储转换为检索器,并使用简单查询和元数据过滤器调用它:
retriever = vector_store.as_retriever(
search_type="similarity_score_threshold",
search_kwargs={"k": 1, "score_threshold": 0.5},
)
retriever.invoke("Stealing from the bank is a crime", filter={"source": "news"})
[Document(id='entry_04', metadata={'source': 'news'}, page_content='Robbers broke into the city bank and stole $1 million in cash.')]
检索增强生成的用法
有关如何使用此向量存储进行检索增强生成 (RAG) 的指南,请参阅以下部分:
了解更多,请查看使用 Astra DB 的完整 RAG 模板此处。
清理向量存储
如果您想从 Astra DB 实例中彻底删除该集合,请运行此命令。
您将丢失其中存储的数据。
vector_store.delete_collection()
API 参考
有关所有 AstraDBVectorStore 功能和配置的详细文档,请参阅 API 参考。