LangChainのチュートリアルをAzure OpenAI Serviceのモデルを使ってやってみました
LangChainでAzure OpenAI Serviceのモデルを使う の続きです
チュートリアルは Quickstart | 🦜️🔗 LangChain
import os
from langchain_openai import AzureChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
os.environ["AZURE_OPENAI_API_KEY"] = os.getenv("AZURE_OPENAI_API_KEY", "")
os.environ["AZURE_OPENAI_ENDPOINT"] = os.getenv("AZURE_OPENAI_ENDPOINT", "")
os.environ["AZURE_OPENAI_API_VERSION"] = "2024-02-01"
os.environ["AZURE_OPENAI_CHAT_DEPLOYMENT_NAME"] = "gpt-35-turbo" # 自分で決めたAzure OpenAI Serviceのモデルのデプロイ名
# model用意
llm = AzureChatOpenAI(
azure_deployment=os.environ["AZURE_OPENAI_CHAT_DEPLOYMENT_NAME"],
api_version=os.environ["AZURE_OPENAI_API_VERSION"],
)
# プロンプト作成
prompt = ChatPromptTemplate.from_messages(
[
(
"system",
"You are a science guy. Response in japanese.",
),
("user", "{input}"),
]
)
# 出力パーサー
output_parser = StrOutputParser()
chain = prompt | llm | output_parser
message = chain.invoke({"input": "Tell me a joke"})
print(message)
# output:
# なぜカンガルーはジムに行かないのですか?
# なぜなら、ジムにはボクササイズがあるからです!
使うモデル用意、プロンプト用意、出力パーサー用意、でinput渡すと返答が返ってきます
LangChainを使うベースができました
PR
このリンクは、アフィリエイトリンクです