LLMとWebから回答アプリ
LLMの情報とWebの情報から、質問に回答します。
最終更新
LLMの情報とWebの情報から、質問に回答します。
最終更新
LLMとWebから回答アプリでは、ユーザーが入力した質問に対して、まずLLMの持っている情報から回答生成を行い、その後Webの情報から回答生成を行います。
ユーザーに入力を求めます。
応答スタイル:テキスト
ユーザーの入力した情報を下記の変数に保存します。
変数:@QUERY
変数種別:会話変数
タイプ:文字列
LLM実行ノードでは質問応答ノードでユーザーが入力した内容をプロンプトで指定し実行しています。
ベースモデル:OPENAI GPT-4o
プロンプト:LLMと会話
回答生成ノードでは質問応答ノードでユーザーが入力した内容を保存した変数情報(@QUERY)に対する回答を生成します。
回答生成ノードではグループプロンプトと呼ばれる種類のプロンプトのみセットすることができます。標準でセットされている回答生成のプロンプトは弊社の仕組み(RAG)とLLMの最適な組合せでのプロンプトを提供しています。
ベースモデル:OPENAI GPT-4o
グループプロンプト:回答生成
検索ソース:ウェブ
回答生成後:次のノードへ
回答生成に成功した場合、次のノードへ進みます。
回答が見つからなかった場合のアクションを指定:OFF
LLMの方で回答生成自体には成功したものの、対象となる検索ソースから的確な回答が見つからず、「回答が見つかりませんでした」などのメッセージを表示した場合に、別途のアクションを指定できるオプションです。