2025年大模型赋能投研专题报告:Dify,全自动投研工作流可视化构建

  • 来源:国金证券
  • 发布时间:2025/05/16
  • 浏览次数:1191
  • 举报
相关深度报告REPORTS

大模型赋能投研专题报告:Dify,全自动投研工作流可视化构建.pdf

大模型赋能投研专题报告:Dify,全自动投研工作流可视化构建。随着生成式AI技术的快速发展,金融行业也正积极探索大模型在各类业务场景中的应用落地。当前也出现了许多应用产品能提升各环节的工作效率,然而产品类型主要属于智能客服、金融知识问答这些,核心优势也主要在于其背后的数据库质量,本质上依然属于“工具”而非“应用”,还未真正发挥大模型自身具备的丰富潜力。而Manus、DeepResearch这类产品展现了大模型成为真正通用或专业化智能体的可能性,这也是它们曾带来轰动的原因。如何更进一步搭建金融领域的专业Agent?为什么我们需要Dify?Dify作...

一、为什么我们需要 Dify?

1.1 Dify 破解金融大模型落地的核心痛点

随着生成式 AI 技术的快速发展,金融行业也正积极探索大模型在各类业务场景中的应用 落地,当前也出现了许多具有丰富功能的应用产品,提升了各环节的工作效率。然而,当 前市面上较成熟的大模型产品主要属于智能客服、金融知识问答这些类型,产品的核心优 势还是在于其背后的数据库质量,本质上依然属于“工具”而非“应用”,还未真正发挥 大模型自身具备的丰富潜力。而 Manus、Deep Research 这类产品展现了大模型成为真正 通用或专业化智能体的可能性,这也是它们曾带来轰动的原因。 当然,金融投研领域对 AI 应用的专业化程度有更高要求,这也是复杂应用落地难的另一 个原因。目前投研领域的 AI 应用还有以下关键痛点:

a)、处理流程长

在实际工作中,用户通常需要处理长链条的任务。譬如在进行个股分析时,我们一般要从 财务基本面、公司业务、行业趋势、宏观政策多个维度进行分析,而其中每个维度分析所 需要的信息、以及分析的逻辑又有所不同,每个任务需要设计专门对应的 AI 功能模块才 能最大程度满足专业性需求。现有大模型产品还主要是专业化的功能模块,若用户想依靠 大模型完成这类复杂分析任务,还需要手动衔接各个模块的反馈,全流程自动化程度依旧 较低,这也体现出当前 AI 应用定制化功能少的问题。

b)、信息整合度高

金融分析一般会涉及到较多工具的联动。除了基础的财务基本面数据与行情数据外, 文本信息如研报、公告、网络舆情乃至专业论文也是主要的信息来源,此外另类数据还包 括商品价格、地理信息、交通信息等,金融分析则需要整合以上所有信息进行判断。然而 当前 AI 应用背靠各自的信息来源,与用户拥有的信息、相互之间均存在数据孤岛现象, 无法有效整合。出于数据安全的考虑,真正有效的应用只能在客户本地定制化落地。

c)、高度数据依赖

投研分析对数据的依赖度高,需要处理大量的结构化数据。但大模型天然不擅长处理 数字类信息,譬如无法充分理解其中数据结构、数字变化中蕴含的信息,在进行一些基础 运算时也容易出现错误,这是实际应用中难以接受的。当前的解决方案是为大模型配置传 统数据库的交互工具,搭配专门设计的计算工具辅助计算,以实现相应的数据处理工作。 但常见情况是懂数据库内部逻辑的前台人员不会设计工具,会构建工具的工程师还需要花 时间了解业务需求,导致应用难落地。 Dify 有望解决以上应用落地中存在的问题。Dify 是一款开源的大语言模型(LLM)应用开 发平台,是专业化的工作流构建工具,致力于协助开发者、企业、尤其是非技术人员迅速 搭建、发布和维护大模型应用。其开源特性赋予开发者极大灵活性,可根据特定需求对平 台进行定制。Dify 的优势可以使用以下几个关键词进行概括:自由度高、模块化、低代码 开发。 Dify 自由度高体现在兼容性强、功能丰富。Dify 能够无缝对接数百种商业和开源 LLM, 涵盖商业模型如 OpenAI GPT、Anthropic Claude、Google Gemini,开源模型如 Llama 2、 Mistral、ChatGLM,以及本地部署模型如 Ollama、Xorbits Inference 等;其搭载的 RAG 引擎功能强大,支持多种文档格式,也能与 Weaviate、Milvus 等向量数据库集成;Dify 也支持用户根据需求构建自己的 AI Agent,能按照用户需求灵活规划并实现复杂任务; 也允许调用外部工具,如 Google 搜索、自动绘图等。更详细的内容我们将会在后文进行 介绍。

Dify 作为专业的工作流搭建工具,优势还体现在内部功能的高度模块化。Dify 允许用户 搭建 Workflow 类型应用,可以自由搭配不同功能的组件,以串联或并联的逻辑完成长链 条工作;工具也都以统一的参数输入、输出形式呈现,并且支持在不同工作区、不同账户 之间进行分享,初次创建即可服用。这一优势恰好对应了投研应用中所需的长链条处理需 求,能进一步提升大模型应用的自动化与定制化。 同时,Dify 中搭建应用是低代码化的。Dify 支持通过拖拽方式构建 AI 应用,凭借其独 特的低代码甚至零代码特性和直观的可视化界面,极大地降低了大模型应用开发的门槛, 让非技术人员都能轻松上手构建复杂的工作流应用。这一点对前台投研人员非常友好,能 帮助其更好利用所掌握的信息来源,也能与本地的数据库轻松建立连接。

1.2 与传统工具相比,Dify 降低了搭建 AI 应用的门槛

Dify 这类带有图形化界面的 AI 工具将大模型应用开发带入新的时代。最初,大模型只有 API 调用一种形式,此时若要搭建 AI 应用非常复杂,所有功能都需要自己设计并实现。 随后,出现了 LangChain 这类框架产品,一度成为 AI 应用的必备利器,但也逐渐暴露出 过度工程化等问题,并且学习曲线陡峭,对非技术人员不够友好。 Dify 能自动处理集成细节,简化了开发流程;多 API 集成与管理也十分方便,能帮助实 现高度定制化的大模型应用,显著提升开发效率与应用的可扩展性;图形化界面也使得非 技术人员学习成本低,人人都可上手;同时,Agent、工作流等功能也保持了搭建应用的 自由度高,并没有因为方便而牺牲实用性。

作为 LLMOps 平台,Dify 重构了 AI 应用开发的生产流程,通过可视化编排和低代码工具, 将 AI 开发门槛从专业技术群体下沉到普通开发者和业务人员,且对专业人士来说也能 显著提升开发效率。

1.3 与同类相比,Dify 兼顾实用性与便捷性

当然,在 AI 应用搭建工具方面 Dify 并非完全没有竞争对手,当前使用量较多的还有 FastGPT 与 Coze。但在当前 AI 平台的发展格局中,Dify 凭借其功能全面、支持自建部署、 支持工作流编排与知识库集成等能力,在众多工具中占据了“灵活可定制”的差异化定位。 Dify 的一大亮点在于其工作流与应用构建能力。相较于 Coze 仅支持基础操作,FastGPT 更偏向“封装好即可调用”的模式,Dify 支持从零自定义复杂工作流,拥有丰富的节点 类型与变量管理能力,支持函数调用、条件逻辑与上下文传递,使其在任务拆解、数据处 理、流程自动化等方面具备强大的工程支持。这一点对于需要构建特定业务逻辑或进行二 次开发的用户尤为重要。 相较之下,虽然 FastGPT 支持更专业化的数据库功能与节点编排功能,但存在本地部署难 度高、应用调试困难等问题,更适合作为企业级部署解决方案,对初学者不够友好;而 Coze 又过于简单,一方面接入模型的选择有限,另一方面在搭建应用时可以选择的功能很少, 只适合初学者上手体验,无法搭建复杂应用。 在知识库方面,Dify 支持文本上传、网页抓取、Notion 同步等多种数据源,具备结构化 处理、分段设定、索引调节等能力。尽管在管理体验上不如 FastGPT 丰富直观,但其整体 设计更具透明性与可控性,更符合专业用户的使用习惯。

Dify 以其工程能力和适配复杂需求的潜力,逐渐成为中高级用户与开发团队关注的焦点。 总体来看,Dify 在功能覆盖度、扩展性、平台灵活性方面表现均衡,尤其适合那些既需要 工具灵活性,又希望在知识库、工作流等环节拥有高度自主控制权,具备特定定制需求的 用户。而 FastGPT 更适用于对性能和部署效率要求极高的企业级用户,Coze 则偏向初学 者与 C 端应用构建者。

1.4 Dify + RAGFlow、MCP 带来丰富想象空间

Dify 还能和 RAGFlow、MCP 等其他专业化功能进行连接,提高应用的广度与深度。 知识库是当前大模型应用必不可少的环节,涉及文档问答、专业知识增强等需求的应用都 需要配备高质量的 RAG 系统,才能够有较好的表现。当前在 RAG 方面专业化程度最高的就 是 RAGFlow,其突出特点在于深度文档理解功能,能够适配多种格式的文档类型,同时追 求较高的输入与检索质量,坚持“Quality in,Quality out”的目标。其内部使用 DeepDoc 进行文本分块、Raptor 策略实现召回增强、混合搜索与多路召回等多种机制,共同实现最 终检索效率的大幅提升。更为重要的是,RAGFlow 同样支持对结构化数据进行检索,这对 金融投研应用来说是必不可少的。Dify 与 FastGPT 等工具虽然自带知识库功能,但也无 法和 RAGFlow 的专业化程度相比较,因此 RAGFlow 的接入可以显著提升 Dify 应用的专业 化程度。 我们可以在 RAGFlow 中配置好 API 服务器,再在 Dify 中选择“外部知识库 API”,对应输 入服务器地址与 API 密钥,快速完成知识库的连接。

另一个可以拓宽大模型应用能力边界的就是 MCP(Model Context Protocol)。简单来说, MCP 是一种开放标准,旨在统一大模型与外部数据源和工具之间的通信协议,核心是为了 解决数据孤岛问题。有了 MCP,任何能以 API 形式进行调用的工具都能够接入大模型,与 传统 Function Calling 的差异就在于其高度的灵活性、可复用性与低操作复杂性。 我们可以安装官方提供的 MCP_SSE 工具,配置接口的相关参数,就能在工作流中调用相应 的工具。此外,Dify 还支持用户将自己创建的工作流以 MCP 形式进行发布,让其他人直 接使用我们部署好的应用。

二、Dify 功能总览

本章节我们介绍 Dify 中几个主要的功能模块,并结合操作手册对各模块的独特之处与优 势进行详细介绍。

2.1 工具:大模型连接外部世界的桥梁

在 Dify 的各类功能中,工具(Tools)功能是连接大模型与外部世界的最重要桥梁,使大 模型具备了更强的交互与行动能力,显著拓展了其应用边界。Dify 丰富的工具调用功能 帮助其在一众工作流应用中超越其他竞品提供了坚实基础。 工具的接入使得 Dify 在构建 Agent 应用时具备了更强的任务分解与执行能力。用户可为 智能助理配置不同工具,当 Agent 接收到任务指令后,便可以在模型推理基础上调用相应 工具,如搜索信息、抓取网页、生成图片或执行数据库查询等,从而完成更复杂的交互逻 辑和任务闭环。 Dify 支持的工具类型非常丰富,主要有以下几类来源:

a)、Dify 市场(Marketplace)中提供的官方接口。用户可以直接使用平台提供的官方工 具,例如 Google 搜索、维基百科抓取、MySQL 数据库连接等,也包含获取时间、代码解 释、JSON 处理等便捷功能。此外,钉钉、企业微信等软件也在 Dify 上提供官方接口,方 便用户在软件中添加大模型应用服务。 大多数工具在初次配置时需要进行授权,譬如 SQL 数据库查询工具等,成功后无需重复配 置。

b)、Dify 也允许用户使用自定义的工具,但需要编写 Schema 文档对接口的参数、调用方 法、返回数据格式等进行描述,才能实现接入外部自定义接口。譬如我们想将 RAGFlow 等 更专业化的知识库接入 Dify 流程,就需要通过这类方法实现。理论上,任何能通过 API 实现的功能都可以编为自定义工具。

c)、Dify 工具的高自由度还体现在,甚至是用户自己创建的工作流也能当作工具使用。 这可以大幅减少重复构建相同功能所花费的精力,增强基础模块的可复用性。 以下案例中,我们搭建一个“个股研判 bot”工作流专门处理个股分析工作,并打包成工 具。如流程图所示,该工作流需要输入个股名称、检索时间范围与分析任务三个参数,经 过一系列程序后返回分析结果。该工具可以进一步应用于其他工作流、或是智能体应用中, 方便大模型自动判断用户的需求是否涉及个股分析,并自主决定是否调用。

高自由度与模块化的工具设计是 Dify 的特色,后续的案例中我们将进一步展示工具模块 的能力。

2.2 知识库:支撑智能问答的事实底座

在大模型驱动的智能问答系统中,传统 LLM 通常依赖静态预训练数据进行响应,然而这类 模型的知识更新周期长、内容难以覆盖企业专属信息,难以胜任对准确性与时效性要求较 高的业务场景。Dify 提供的知识库(Knowledge)功能,正是为了解决这一问题而设计。 它通过将 RAG(Retrieval-Augmented Generation)流程可视化,并封装成一套易用的图 形界面,帮助用户构建、管理并接入可实时更新的知识源,为大模型提供结构化的“事实 依据”。 在实际问答过程中,大模型并非直接依赖记忆中的训练语料,而是优先从知识 库中召回相关度较高的内容块,并以此作为上下文提示,从而生成更贴近事实、更具参考 性的回答。这一过程不仅显著降低了模型“幻觉”现象的概率,也提升了复杂知识问答的 稳定性与准确性。 在 Dify 中创建并配置一个知识库,是构建可检索型智能问答系统的重要前提。整个过程 由内容上传、结构处理、索引设定到模型集成等多个步骤组成,均可在平台的可视化界面 中完成。Dify 知识库支持上传多种格式的文档(如 TXT、DOCX、PDF、Markdown、HTML、 CSV 等),同时也支持连接外部知识源(如 Notion、网页爬虫结果、数据库等),使已有内 容库能够与智能应用无缝对接,无需重复上传或维护,大幅降低数据接入与更新的门槛。

知识库模块也支持灵活的分段(Chunk)、索引与检索算法设置,确保 LLM 能够基于关键词 进行高效检索。完成数据源导入后,系统将引导用户进入分段配置流程,这是将长文本切 分为更小的“内容块”的关键步骤,以便后续模型在检索时获得更精准的上下文。具体而 言,分段有“通用”与“父子分段”两种模式,父子分段更适用于前后文高度连贯性的文 本,可能更适用于金融文本知识库构造。用户可在此阶段预览分段效果,并根据需要调整 策略,确保信息结构的合理性和一致性。 接下来是设定索引方法与检索参数,这一步决定了知识库如何在接收到查询指令后对已上 传内容进行内容匹配与相关性排序。检索算法上 Dify 支持单纯的向量检索、全文检索与 混合检索三种方式。用户可以自定义召回策略、相似度阈值等参数,以提升答案的准确性 与相关性。

配置完成后,系统将自动进行分段文本的向量化嵌入,并构建索引结构。该过程可能需要 数秒到数分钟,视文件体积与内容结构而定。

后续如需维护或更新文档内容,用户可在知识库管理界面对文档进行替换、分段重新处理 或索引更新,保持知识库内容的实时性与可控性。 待所有内容成功嵌入后,用户即可在应用构建过程中将该知识库与具体 Agen t 或 Chatflow 应用进行绑定,赋予模型对企业专属内容的实时访问能力。知识库将作为模型 生成答案时的上下文来源,在用户提问后自动完成相关内容召回并注入至模型提示中,生 成更具针对性、真实性的响应。在后续应用构建时,开发者可以快速将知识库集成至对话 型或 API 型应用中,用于打造如“AI 客服助手”、“法规问答引擎”、“金融文档解析机器 人”等系统。在 Dify 内仅需上传文档并配置知识库接入,三分钟内即可部署完成并投入 使用。 当然,Dify 自带的知识库无法识别 pdf 中的表格等结构化数据,若在此方面有较高需求, 还是应当外接 RAGFlow 等其他专业化的知识库工具。

2.3 Agent 模式:让模型具备执行力

在传统的大语言模型应用中,模型的回答完全依赖于用户提供的上下文和模型本身的知识 储备,它“只是一个会想的大脑”,不能真正获取外部信息或采取行动。而 Dify 中的 Agent 模块改变了这一点。我们可以为 Agent 配置各种工具,让它在理解问题的同时还能 采取行动来解决问题。当用户提出问题时,Agent 会根据解决问题的需要主动选择每一步 调用的工具,包括数据库检索、网页查询等功能,获取相关信息后再由语言模型将这些信 息加工为自然语言输出。 这样的机制让模型从只能对话的生成器升级为一个能动手的智能助理。比如当用户问“这 个月哪个产品销量最低?”时,普通模型可能只能根据输入内容猜测,而 Agent 会识别这 是一个需要数据查询的任务,自动调用我们配置的工具查询销量数据,然后给出准确回答。 Agent 的作用就是赋予模型执行力,使它不再局限于文本生成,而是可以像一个具备动手 能力的员工,真正完成任务。

Dify 将构建智能助手(Agent)的配置流程进行模块化,操作较为简便。用户可以从官方 提供的模板出发,也可以选择“创建空白应用”从零开始搭建。

Agent 的配置核心包括提示词、变量、知识库与工具。用户首先需要在“提示词”部分设 定智能助手的行为逻辑,明确其任务目标、操作流程、语气风格、资源限制与角色定位。 提示词的质量直接影响 Agent 对用户指令的理解能力与执行一致性,但用户也不必担心自 己无法写出高质量的提示词。Dify 也提供了自动生成专业化提示词的功能,只需用户简 单描述指令,即可生成格式规范且带有 few-shot 的提示词。

知识库模块与工具模块则如前问所述,均可在 Agent 中进行配置,为实际应用带来丰富的 想象空间。 此外,用户还可以配置模型的推理方式(如 GPT 系列支持的 Function Calling 或兼容 ReAct 的逻辑调用方式),控制助手的迭代次数,并设置对话的开场白与引导问题,提升用 户的首次交互体验。对于支持文件上传的多模态模型(如 Claude 3.5 Sonnet 或 Gemini 1.5 Pro),系统也提供“文档”功能开关,以启用文件识别能力。整个 Agent 配置完成后,用户可在“调试与预览”界面进行测试,检验其任务完成效果并进一步调整,确保模 型行为符合预期。

2.4 Workflow:构建可执行任务的智能流程引擎

在大语言模型面向实际业务场景落地的过程中,任务链条的复杂性往往对模型的提示词设 计和推理路径提出更高要求。Dify 所提供的工作流(Workflow)功能,正是为了解决这一 问题而设计。通过将复杂任务拆解为可编排的节点序列,工作流在提升系统可控性的同时, 也显著降低了对单轮提示词和模型性能的依赖,从而增强了整体应用的稳定性、可解释性 与容错性。在 Workflow 模式下,系统则更像是一个结构化任务执行平台,可广泛应用于 高质量翻译、内容生成、数据分析与邮件自动处理等场景,不仅是“串接 LLM 输出”的流 程工具,更是企业构建智能任务引擎的核心模块之一。 用户在创建空白工作流应用之后,首先会以“开始节点”作为流程入口。此处用户可以添 加输入变量,确定整个工作流的初始输入部分。之后,用户可通过添加和连接多个节点, 逐步构建任务逻辑。节点是工作流的基本执行单元,每个节点代表一个功能步骤,例如调 用大语言模型(LLM)、连接知识库检索、调用 Agent 等前文中提及的关键功能;此外也包 括条件分支、迭代与循环等逻辑过程,强化大模型处理复杂逻辑任务的能力;也能加入问 题分类、代码执行、模板转换与迭代处理等节点,为复杂业务提供了灵活的配置能力;或 是直接调用配置好的各类工具,进行数据提取或处理任务。

在构建过程中,变量机制用于在节点之间传递数据。变量思想源自于编程,这方便用户将 内部每个节点以及整个工作流都当作一个函数,变量在其中起到传递信息流的关键作用。 在初始节点设定的初始变量可在各节点中被引用,支持记录用户、文件、应用运行状态等 信息;环境变量则用于存储如 API 密钥等敏感信息,支持跨节点调用但不可修改;此外用 户还可通过“变量赋值”节点自定义变量,实现流程中的数据加工、暂存与逻辑控制。 通过连接多个节点,可以实现从输入到输出的完整自动化流程。流程最终以“End 节点” 结束,用于标记任务的完成。完成节点编排和变量配置后,用户可对流程进行调试和预览, 逐步验证各步骤的输入输出是否符合预期。整个构建过程无需编写代码,适用于构建结构 清晰、可复用、自动化程度高的数据处理和任务执行应用。 Dify 中还有一类与工作流类似的应用种类“Chatflow”。在 Chatflow 中用户可以构建具 备意图识别与逻辑判断能力的多轮对话系统,常见应用包括客户服务系统与语义搜索。例 如,在客服场景中,模型通过用户问题自动识别其需求,再结合预设节点调用相关工具生 成准确答复,极大缓解了人工负担。此处我们不做赘述。

2.5 扩展系统:Dify 连接自定义服务

在 Dify 中,Extension(扩展)功能为大模型提供了灵活的外部能力接入机制,使开发者能够将自定义服务或系统功能无缝集成进智能体的推理与任务流程中。通过配置标准化的 API 接口,用户可以将自身已有的业务逻辑或数据能力包装成模块,供大模型调用,从而 扩展模型的执行范围和上下文理解能力。目前平台支持的扩展点包括外部数据工具和敏感 内容审查两大类,分别用于为 LLM 提供额外的信息来源以及增强模型的合规性和安全控 制。 通过 Extension 接入的 API 服务可以作为 Agent 或工作流中的工具节点被调用,例如通 过外部接口实时获取天气数据、调用内部知识系统回答专业问题,或对输入输出内容进行 实时审查与替换。开发者只需提供符合规范的 API 接口,并为其配置访问凭据,便可在 Dify 平台完成集成与调试。这一机制使得智能体能力能够根据业务需求动态扩展,实现 更深度、更定制化的任务执行逻辑。 在 Dify 中使用 Extension 功能,开发者需首先准备好可被调用的 API 接口,并配置对应 的鉴权方式(如 API Key )。 平 台 支 持 两 类 扩 展 点 : 用 于 获 取 外 部 信 息 的 external_data_tool,以及用于内容过滤的 moderation。在平台中添加扩展时,开发者需 填写 API Endpoint,并接受系统以 point=ping 发起的校验请求,确保接口连通性。接口 调用与返回需遵循标准格式,例如外部数据工具应返回结构化字符串字段 result。如服 务部署在本地环境,也可借助 Ngrok 或 Cloudflare Workers 实现公网访问。在成功配置 后,该扩展即可作为工具接入到具体应用中,由模型在执行过程中自动调用,从而增强数 据访问与控制能力。

三、Dify 手把手教学

Dify 的部署与配置较为简单,本章节中我们结合具体案例对 Dify 使用中的细节步骤进行 详细介绍。

3.1 Dify 客户端部署

Dify 是开源的 LLM 应用开发平台,支持使用者完全在本地部署 Dify,满足用户对数据隐 私性的要求;同时官方也提供云服务版本,支持即开即用式的 AI 应用开发。

3.2 模型配置

在开始搭建属于自己的 Dify 应用之前,我们首先需要对大模型接口进行配置。当前 Dify 支持几乎市面上所有的大模型供应商,包括 OpenAI、DeepSeek、Gemini、通义千问等,也 支持大模型平台如微软 Azure、火山引擎、硅基流动、腾讯混元等,广泛的模型支持正是 Dify 的优势之一。 我们可以在右上角头像➡设置➡模型供应商,选择具体的模型服务商进行安装,并输入对 应的 api_keys 完成部署。在列表最上端的“系统模型设置”中,我们可选择默认的大模 型选项,在搭建应用时无需重复选择。

Dify 同样支持通过 Ollama、vllm 等方法部署的本地大模型。以 Ollama 为例,在完成模 型部署之后,我们仅需在 Dify 配置窗口输入模型服务的 url 等信息即可连接。

3.3 知识库配置

Dify 内置了基础的 RAG 框架,底层使用 Weaviate 作为向量数据库。Weaviate 是专用于向 量检索的数据库产品,特点在于将向量搜索与图数据库 GraphQL 技术相结合,方便进行复 杂的数据查询与分析工作,也足以支持我们进行快速上手的检索任务。参考前文介绍的 Dify 知识库配置细节,我们可以基于本地 pdf 轻松构建知识库。我们也能直接在知识库 中进行召回测试,直观感受召回效果 值得注意的是,本地部署版在构建文档时约束较少,构建效率取决于部署服务器的性能; 云端版本则需要等待较长时间才能完成知识库构建。

四、应用构建实战——Dify 为投研应用带来丰富想象空间

4.1 搭建一个简单的“时间提取”小工具

我们以这个“时间提取”工具为案例,展示工作流的基本运行逻辑。 用户在以自然语言进行提问时,很可能不会对时间点或时间范围进行明确描述,而通常会使用较为模糊的“近一周”、“上个季度”等词汇。若不对时间进行明确描述,大模型很可 能会理解错误,进而导致后续检索、问答等步骤出现严重偏差。 因此,“时间提取”工具帮助我们在获取用户提问之后优先对时间范围进行确认。我们使 用 Agent 模式对时间范围进行判断,并提供获取当前日期的工具,方便 Agent 自动调用。 为了防止单次回答提取失败,我们在设计上加入循环逻辑,设定最大循环次数为 3 次,3 次以内还未输出期望格式的结果则会提醒用户重新输入正确格式的结果。

点击运行后,可以对整个流程进行测试,并通过“追踪”功能观察其中每一步的输入输出 是否符合要求。核心 Agent 循环了两次,在第一轮思考中,大模型判断需要 调用工具来获取当前的时间,并随后调用了工具获取当前日期为“2025-05-11”;第二轮 思考时,大模型就能基于“2025-05-11”与“近三个月”这两个信息,综合判断出起始日 期与结束日期。

4.2 “金融分析师”搭建

我们尝试搭建了能处理复杂金融问题的 Agent。该 Agent 会对问题类型进行自动判断,划 分到个股、行业、概念或宏观四个类别中,每个类别再分别对应不同的处理流程,譬如“个 股”分支主要会调用“个股研判 bot”这一工具。该工具专门为个股分析设计,内部搭载了研报知识库、财务数据库等,它会再次对问题需求进行判断,并自动决策是否调用这些 数据库作答。

我们尝试提问“低空经济在近期内是否出现相关政策变化?”,模型首先正确判别了问题 属性为“概念”,随后进入“概念”分支并给出了正确回答,在时间段上也同样符合要求。

我们再次提问“军工行业本月以来是否出现基本面边际变化?”,模型也判断对问题属性 为“行业”,随后针对本月军工行业的基本面情况进行深入分析。

4.3 将地理信息纳入 Agent 范畴

最后,我们构建“地理信息检索”Agent,展示 Dify 能为投研应用带来的巨大想象空间。 我们设计了一个 Agent,并赋予其检索经纬度、查询周边地点的功能,同时将牧原股份的 年报构造为知识库,挂载在 Agent 之中。其中,经纬度检索、周边地点查询等功能使用 MCP 方式进行连接。

我们首先提问“请从年报中找出牧原在黑龙江地区的养殖场地址”,Agent 可以从研报中 找出相应的养殖场地址,并进行简单总结。 紧接着,我们提问“请找出牧原的明水县养殖场周围 50 千米内是否有其他养殖场存在?”, Agent 随后可以依次序完成经纬度提取、搜索周边地点的功能,并完整输出搜索结果。

主观研究尤其是偏消费类的行业研究,有时需要对线下店铺的地理位置及其周边业态进行 分析,因此对于地理信息检索存在需求。而在 Dify 之前,研究人员只能手动在多个界面 之间不停切换来实现信息搜集;但 Dify 出现之后,这类工作的效率也将大幅提升。本质 上,但凡是涉及金融与其他领域信息整合的需求,都可以在 Dify 的辅助下更高效完成。

五、总结

Dify 作为专业化的工作流应用搭建工具,其高自由度、模块化与低代码的产品特征使其 能充分解决大模型在金融投研领域落地的痛点:处理流程长、信息整合度高、高度数据依 赖。Dify 不仅相比此前的 LangChain 等框架有大幅效率提升,在同类产品中同样定位突 出,兼顾了专业化与便捷性,成为金融 AI 投研应用的首选。当然,Dify 也保持着高度的 可拓展性,能与 RAGFlow 这类专业化知识库相连接,也能支持 MCP 工具接入,可进一步拓 宽应用的能力边界。 我们对 Dify 内部的工具、知识库、Agent 与工作流等关键功能进行详细介绍,展示了其 中自定义工具、搭建 Agent 与工作流等操作的具体方法。我们也对部署本地版 Dify、配置大模型接口、构建知识库等基础操作进行展示,并对诸如文档分块、检索算法等可能影 响应用效果的节点进行说明。

最终,我们结合三个案例,展示了 Dify 应用的巨大想象空间。 第一个案例,我们设计了“时间提取”工具,解决了自然语言对话中存在的时间范围指代 模糊的问题,能自动识别解决用户需求所需要的确切数据时间范围。该工具可以嵌套进任 意其他工作流或 Agent 之中,实现重复使用。 第二个案例,我们设计了专业化的“金融分析师”。它首先会对用户提问的范畴进行划分, 确认是“个股”、“行业”、“概念”还是“宏观”类问题,再分别接入相对应的细分流程进 行针对性分析。每个细分流程则会有专门设计的 Agent 进行分析工作,它们运行流程、知 识库、工具与提示词等方面都有所不同,能最大化专业程度。 第三个案例,我们介绍了“地理信息检索”Agent,展示 Dify 在搭建投研应用方面的巨大 潜力。该 Agent 可以对年报中出现的地址进行经纬度定位,并同时搜索附近区域内出现的 目标地点,譬如我们在案例中设定的“养殖场”这一目标。本质上,但凡是涉及金融与其 他领域信息整合的需求,都可以在 Dify 的辅助下更高效完成。 整体而言,Dify 易于上手也兼具专业性,为金融应用带来了丰富的想象空间,是目前搭建 大模型投研应用的最佳选择。


(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

相关报告
评论
  • 最新文档
  • 最新精读
分享至