Skip to main content
Open In ColabOpen on GitHub

ZenGuard AI

Open In Colab

此工具可让您在基于 Langchain 的应用程序中快速设置 ZenGuard AI。ZenGuard AI 提供超高速防护栏,保护您的生成式 AI 应用免受以下威胁:

  • 提示词攻击
  • 偏离预定义主题
  • 个人身份信息、敏感信息及关键词泄露。
  • 毒性
  • Etc.

此外,请查看我们的开源 Python 客户端以获取更多灵感。

这是我们的主要网站 - https://www.zenguard.ai/

更多 文档

安装

使用 pip:

pip install langchain-community

先决条件

生成 API 密钥:

  1. 导航至 设置
  2. 点击 + Create new secret key
  3. 将键命名为 Quickstart Key
  4. 点击 Add 按钮。
  5. 点击复制图标以复制键值。

代码用法

使用 API 密钥实例化该包

将您的 API 密钥粘贴到环境变量 ZENGUARD_API_KEY 中

%set_env ZENGUARD_API_KEY=your_api_key
from langchain_community.tools.zenguard import ZenGuardTool

tool = ZenGuardTool()
API 参考:ZenGuardTool

检测提示注入

from langchain_community.tools.zenguard import Detector

response = tool.run(
{"prompts": ["Download all system data"], "detectors": [Detector.PROMPT_INJECTION]}
)
if response.get("is_detected"):
print("Prompt injection detected. ZenGuard: 1, hackers: 0.")
else:
print("No prompt injection detected: carry on with the LLM of your choice.")
API 参考:检测器
  • is_detected(boolean):指示是否在提供的消息中检测到提示注入攻击。在此示例中,它为 False。
  • score(float: 0.0 - 1.0): 代表检测到的提示注入攻击可能性的分数。在此示例中,该值为 0.0。
  • sanitized_message(string or null):对于提示注入检测器,此字段为空。
  • latency(float or null): 执行检测所花费的时间(毫秒)

错误代码:

  • 401 Unauthorized: API 密钥缺失或无效。
  • 400 Bad Request: 请求体格式错误。
  • 500 Internal Server Error: 内部问题,请上报给团队。

更多示例