LLMとWebから回答アプリ

LLMの情報とWebの情報から、質問に回答します。

フローの全体図

概要

LLMとWebから回答アプリでは、ユーザーが入力した質問に対して、まずLLMの持っている情報から回答生成を行い、その後Webの情報から回答生成を行います。

質問を入力する(質問応答ノード)

ユーザーに入力を求めます。

  • 応答スタイル:テキスト

ユーザーの入力した情報を下記の変数に保存します。

  • 変数:@QUERY

    • 変数種別:会話変数

    • タイプ:文字列

LLMからの回答を生成(LLM実行ノード)

LLM実行ノードでは質問応答ノードでユーザーが入力した内容をプロンプトで指定し実行しています。

  • ベースモデル:OPENAI GPT-4o

  • プロンプト:LLMと会話

Webからの回答を生成(回答生成ノード)

回答生成ノードでは質問応答ノードでユーザーが入力した内容を保存した変数情報(@QUERY)に対する回答を生成します。

回答生成ノードではグループプロンプトと呼ばれる種類のプロンプトのみセットすることができます。標準でセットされている回答生成のプロンプトは弊社の仕組み(RAG)とLLMの最適な組合せでのプロンプトを提供しています。

  • ベースモデル:OPENAI GPT-4o

  • グループプロンプト:回答生成

  • 検索ソース:ウェブ

  • 回答生成後:次のノードへ

    • 回答生成に成功した場合、次のノードへ進みます。

  • 回答が見つからなかった場合のアクションを指定:OFF

    • LLMの方で回答生成自体には成功したものの、対象となる検索ソースから的確な回答が見つからず、「回答が見つかりませんでした」などのメッセージを表示した場合に、別途のアクションを指定できるオプションです。

最終更新