Skip to main content
Open In ColabOpen on GitHub

PipelineAI

PipelineAI allows you to run your ML models at scale in the cloud. It also provides API access to several LLM models.

本笔记本介绍了如何在 PipelineAI 中使用 Langchain。

LangChain大型语言模型开发框架示例

此示例展示了PipelineAI如何与LangChain集成,由PipelineAI创建。

设置

pipeline-ai 库是使用 PipelineAI API(又称 Pipeline Cloud)所必需的。请使用 pip install pipeline-ai 安装 pipeline-ai

# Install the package
%pip install --upgrade --quiet pipeline-ai

示例

导入

import os

from langchain_community.llms import PipelineAI
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import PromptTemplate

设置环境API密钥

请确保从PipelineAI获取您的API密钥。查看云快速入门指南。您将获得30天的免费试用期,提供10小时的无服务器GPU计算时间,用于测试不同的模型。

os.environ["PIPELINE_API_KEY"] = "YOUR_API_KEY_HERE"

创建PipelineAI实例

在实例化 PipelineAI 时,你需要指定要使用的管道的 ID 或标签,例如 pipeline_key = "public/gpt-j:base"。然后你可以选择传递其他特定于管道的关键字参数:

llm = PipelineAI(pipeline_key="YOUR_PIPELINE_KEY", pipeline_kwargs={...})

创建一个提示模板

我们将为问答创建一个提示模板。

template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)

启动LLMChain

llm_chain = prompt | llm | StrOutputParser()

运行LLMChain

提供一个问题并运行LLMChain。

question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

llm_chain.invoke(question)