AI 与基础模型 · 2026年2月8日

多模型编排:为每个研究任务匹配正确的模型

在 KSINQ,我们运行一个多模型架构,路由决策——哪个模型处理哪个任务——本身就是对分析质量的投资。强制推理模型做量化计算会得到更慢且不可靠的结果;强制视觉模型做长文本分析会得到浅薄的分析。

单模型思维的问题

AI 驱动的投资研究中最常见的错误是把模型选择当作一次性决策。选”最好的”模型,所有东西都走它,完事。这种做法失败的原因和单个分析师不可能同时在宏观分析、信用评估、量化建模和交易执行上都最出色一样。不同任务有不同的认知特征,正确的工具因此而异。

在 KSINQ,我们运行一个多模型架构,路由决策——哪个模型处理哪个任务——本身就是对分析质量的投资。本文解释这种路由逻辑。

KSINQ 模型阵容

Claude(Anthropic)—— 核心推理与分析。 如前一篇文章所述,Claude 处理需要跨长双语文档进行结构化分析推理的任务:论点构建、证据链搭建、对抗性压力测试、跨语言综合。这些是我们工作流中风险最高的认知任务,我们将最强的推理模型分配给它们。

OpenAI o 系列(o3 / o4-mini)—— 数学与量化推理。 当我们需要建模期权收益结构、运行带显式概率分布的情景分析、或验证研报中的量化声明时,路由到 OpenAI 的推理优化模型。o 系列擅长每一步都必须逻辑验证的多步数学推理——这一要求与 Claude 擅长的自然语言推理有显著不同。具体例子:当风险评估视角需要衡量一个论点的不对称结构——“如果正确,路径回报是 4 倍;如果错了,信心折损限于 1 倍”——该结构的数学验证走 o 系列。

GPT-4.1 —— 多模态解析。 金融研究涉及纯文本模型无法处理的视觉数据:嵌入图表的盈利演示文稿、扫描的监管文件、贸易渠道的航运单据图像、大宗商品储存设施的卫星图像。GPT-4.1 处理这些多模态输入,从视觉来源提取结构化数据,然后输入 Claude 的推理管线。这不是推理任务——是解析任务——视觉转文本提取最好的模型未必和对该文本推理最好的模型相同。

Google Gemini —— 分类和预处理。 不是每个任务都需要前沿模型。初步新闻过滤、低优先级来源的基础摘要、常规文件翻译、元数据提取,都是能力足够但更经济的模型能胜任的任务。我们通过 Google Gemini 路由这些任务,它以更低的成本提供强大性能和充裕的上下文窗口。这是一个工程成熟度决策:将预算集中在模型质量直接影响投资结果的分析任务上,同时对预处理使用高效的替代品。

路由逻辑

模型选择不是随机的也不是手动的。我们定义了任务类别和显式路由规则。

  • 结构化分析推理(论点构建、证据链、对抗性审查)→ Claude
  • 量化验证和数学建模 → OpenAI o 系列
  • 视觉数据提取 → GPT-4.1
  • 预处理、分类和常规提取 → Google Gemini

路由发生在工作流层面,不是对话层面。单个研究流程可能依次调用三四个模型:Gemini 用于初步新闻分类,GPT-4.1 用于解析航运报告的视觉数据,Claude 用于构建分析论点,o 系列用于验证量化风险评估。每个阶段的输出输入下一阶段。人类研究员审核最终综合,而非中间路由。

为什么这对投资质量重要

多模型方法不是技术奢侈。它是对分析质量的直接投资。当你强制推理优化模型做量化计算时,你得到更慢且更不可靠的结果。当你强制视觉模型做长篇分析推理时,你得到浅薄的分析。当你用前沿模型做常规预处理时,你烧掉了本可以分配给模型质量会产生实质差异的任务的预算。

来自我们自己三重视角框架的类比是精确的:正如我们不让基本面分析视角做风险评估视角的工作,我们也不让推理模型做量化模型的工作。 模型层面的专业化镜像了分析层面的专业化。两者都改善结果。