×

辅导娃写作业卷成了研报?我用Deep Research跑通了“赵氏寻根”的底层逻辑

wang wang 发表于2026-05-05 22:41:24 浏览2 评论0

抢沙发发表评论

辅导娃写作业卷成了研报?我用Deep Research跑通了“赵氏寻根”的底层逻辑
"AI Search在Deep Research Agent场景里的真正定位:不是一次性调用的插件,而是深度嵌入推理链条的核心基础设施。"

01一个学校的调研任务

五一假期最后一天,娃不出意外的进入了疯狂补作业模式。

这时候才想起来学校布置的一项作业:调研自己姓氏的历史,起源、演变、名人、重要事件

:"需要借助下科技强国的力量",然后拿走我的手机,熟练地打开了某包。

等等,不要上来就借助AI的力量,咱们先讨论下。这个作业很应景,前一段时间电视剧《太平年》很火,讲述了吴越国纳土归宋的故事,也顺带带火了"赵钱孙李"这些姓氏。

"为什么赵在百家姓之首?"

娃:"为宋朝皇帝姓赵"

我:"再想想你的籍贯——我的老家在哪里?河南巩义,宋朝的皇帝都在这里埋着,我小时候还在皇帝坟头蹦过迪。再想想我们的姓"

娃惊呼:"所以我们是皇帝的..."

"不是"——我打断了他——"我们祖先来自山西洪洞县大槐树下"

永昭陵,宋仁宗的墓,以前没保护,真的在坟头上蹦过迪

言归正传——既然要做调研分析,咱们就不要用普通的联网搜索功能,今天爹地就带你体验下 DeepResearch Agent 的能力,简称 DRA。

02什么是DRA(Deep Research Agent)

很多人觉得能联网搜索的AI Chatbot就是DRA,这其实是大错特错。DRA是一种具备高度自主性、递归推理能力和复杂工具调用能力的复合AI系统。

传统联网问答AI拿到问题后:调用搜索引擎搜关键词,给一个概述,结束。本质上是把搜索引擎当字典查,大模型扮演的是"会说话的搜索结果摘要"。

Deep Research Agent是另一套范式:

用户给一个目标 → 模型自己规划路径 → 执行搜索 → 分析结果 → 发现缺口 → 再次搜索 → 循环直到闭环。

核心区别在于搜索在系统中扮演的角色

传统联网问答:搜索 = 查询工具(一次性调用)

DRA:搜索 = 研究基础设施(递归调用,贯穿始终)

两者核心区别

对比维度
联网问答 Agent
Deep Research Agent
思维模式
一问一答,立即搜索,输出答案
引入思维链,支持ReAct,自我反思,路径回溯
执行逻辑
线性逻辑:问题→搜索→返回→总结
递归逻辑:发现不足→重回规划层→针对性二次查询
工具使用
工具量少,单次调用
检索→验证→再检索,多工具协同
交付物
对话片段,摘要,单一任务结果
多页、结构化、高准确度的深度报告
交付时间
实时
最长超过30分钟(会提醒先去喝杯咖啡)

今天我用我的小龙虾来充当RDA,我没有给他提供更多维度的关键词。只扔了一句话:

"六年级五一假期作业:研究自己姓氏(赵)的历史,起源、演变、名人、重要事件,做一份报告。"

这就是一个典型的模糊指令——没有结构,没有关键词,甚至没有明确的研究边界。

DRA拿到这句话:先规划,再行动。

小龙虾拿到指令后,先"想"了几秒钟,输出了这样一组研究框架:

8个维度,不是我给的,是它自己规划出来的。

这才是DRA的第一步:任务分解——把一个模糊问题,拆成结构化研究框架。

03第一轮探索:先摸清楚有哪些路

有了研究框架,接下来不是一股脑全部开搜。DRA 的做法是先做一轮探索性搜索,每个维度先搜一遍,摸清楚这个方向大概有什么内容,这时小龙虾开始调用联网搜索的Skill,通过小宿的Smart Search来搜索这些内容。

比如"赵姓名人"这个维度,第一轮搜的是:

"赵姓名人 古代 现代 科技"

返回结果里,古代人物非常丰富——赵武灵王、赵云、赵匡胤、赵普、赵佶、赵孟頫……

现代人物,几乎没有(比钱氏少多了...)。赵九章、赵元任这些现代科学文化名人,首页没有出现。

这就是 DRA 里一个非常关键的机制——在第一轮探索后,模型会反思:已获取的信息是否足以支撑结论?哪个方向的数据最薄弱?

Gap发现:"赵姓名人"中,古代分支数据丰富,现代分支数据严重不足

于是触发第二轮针对性搜索,专门补充:

"赵姓名人 现代 赵九章 赵元任"

传统 Agent:搜一遍,有结果就返回,没有就结束。

DRA:搜一遍,发现薄弱环节,主动再搜,直到这个分支闭环。

04代理化检索:搜索不是一次性的,是递归的

为什么DRA的搜索是"递归"的,而传统联网问答是"线性"的?用"赵姓迁徙"这个维度举例:

第一轮探索:

搜的是"赵姓迁徙路线":返回结果里开始出现三个高频节点:洪洞大槐树、靖康之变、明初移民。但此时模型对这三条线索的认知是模糊的——只知道"这些是重要节点",但不了解具体内容。

第二轮深入:

模型才针对每个节点分别深入:

"洪洞大槐树移民" → 了解了明初18次移民的政策背景和规模

"靖康之变 南宋" → 了解了北宋灭亡触发大规模南迁的完整链条

"明初移民 洪洞" → 了解了山西向全国扩散的具体路线

每一轮搜索,都会发现新的知识节点;每个新节点,都触发新一轮更精准的搜索。

这个过程不是一次性的,而是递归循环:搜→读→发现→搜→读→发现→……直到所有分支都闭环。

05上下文爆炸,和救场的参数

一开始,我用的是enableContent参数,Smart Search返回的是每篇来源的完整正文。结果触发了19次大规模搜索,每次返回10条来源,单次 JSON 动不动就几十KB,有几次破了100 KB。

实际结果:小龙虾在调研当中多次无响应,Web UI界面开始出现Compaction提示,追问后,小龙虾才会说任务因未知原因中断。毫无疑问,应该是上下文窗口撑爆了。

直到换成Chunk模式后,才恢复正常。每次只返回最相关的语义切片,JSON体积大幅缩小,管道不再堵塞,搜索链路才重新跑通。

Chunk模式:搜索引擎做预消化,而不是把全文一股脑塞进来

SmartSearch 的chunk参数,返回的是每篇来源中最相关的语义切片,而不是完整正文。把一篇万字文章切分成 3-5 个语义chunk,按相关度排序,模型直接取最相关的那几个使用。

第一步:搜索 + chunk 切分 → 每条来源直接返回最相关的语义切片

第二步:模型直接消费 chunk 切片

    → 不需要判断"要不要下钻"

    → 也不存在上下文爆炸

第三步:gap 发现 → 再次搜索

    → 再次触发 chunk 切分

    → 递归直到闭环

和full content 模式相比,chunk模式省 30%+的Token,直接从源头解决了上下文爆炸问题,不需要靠分层下钻来绕路。

没有AI Search的chunk 模式,DRA面对上下文爆炸只能采用分层下钻的方式规避——先拿摘要判断要不要下钻,再决定是否读取全文。这套流程是有效的,但增加了模型端的决策负担和调用次数。chunk模式从源头解决了这个问题。

这就是 Chunk 模式的意义。

06AI Search在DRA架构里,不只是工具,更是基础设施

从第一轮探索,到gap发现后的补充搜索,到chunk模式的按需切分——搜索这个动作,贯穿了整个DRA任务的生命周期。

这才是AI Search在DRA场景里的真正定位:不是一次性调用的插件,而是深度嵌入推理链条的核心基础设施。

并行搜索能力:多个维度同时发起搜索,节省总时间。

chunk智能切分:每条来源只返回最相关的语义切片,省 30%+ Token,直接可用。

递归调度:每次搜索结果都能触发下一轮新搜索,形成真正的搜索链路而不是单次查询。

本次实践底层用的正是小宿科技的Smart Search——chunk模式,搜索复盘如下:

  • 总搜索次数:19次

  • 每次返回:Top 10 条来源

  • 理论覆盖:190条来源(含 --enable-content 全文内容)

  • 参数模式:Chunk模式

  • 精读页面:0次(Chunk已在返回结果中,无需二次抓取)

07最终输出:闭环之后的样子

经过三轮左右的递归搜索(探索→发现gap→补充→验证),最终拿到了完整的研究素材,并生成了调研报告:

写在最后

传统联网问答的搜索,是"你问我答"。

DRA的搜索,是"你给我一个目标,我自己去发现还缺什么,缺什么我就再找什么"。

学校的作业是关于姓氏的。

但孩子真正看到的,是一套完整的思维方

——【完】——
别再硬逼娃刷题了:我用小龙虾+GitHub+Vercel设计了一门“星际数学课”
Gemma4+OpenClaw实现本地“虾粮自由”,还发现了一个令Peter Steinberger点赞的Bug
新人Hermes入职第一天,就把老员工Openclaw“家”给偷了
Agent 范式转移:从“语义层”的SKILL,回归“执行层”的CLI
我用小龙虾+小宿AI全家桶,为娃生成了《阿尔忒弥斯II》双语时文读物
当“专业”被蒸馏成了".Skill",我也把调教好的小龙虾送给了大家
Openclaw+小宿MaaS自动切换模型“中杯、大杯、特大杯”,我治好了罗老师的强迫症
解构AI Agent的“隐性成本”:我是如何让小龙虾戒掉“暴力美学”,省下 70% Token的?
315:GEO给大模型投毒?小宿智能搜索:我这里"禁毒"
我用小龙虾+小宿MaaS和AI Search,打造了一个数字售前