豆包消灭联网搜索

0次浏览     发布时间:2025-04-07 16:25:00    

坚持不在豆包中接入DeepSeek的字节,在自研深度思考功能上又有了新动作。

继3月18日豆包APP全量上线深度思考功能后,时隔十天之后,近期豆包又对深度思考功能做了番更新,主要亮点在于将联网搜索能力直接融进了思考过程中,可以实现“边想边搜”。直白点理解,就相当于豆包把联网搜索键与深度思考键合二为一了。

此前,在DeepSeek R1爆火后,深度思考和联网搜索两大功能,一度成为AI助手类产品的设计新标准。

根据字母榜(ID:wujicaijing)实际体验,豆包上述二合一的新产品设计,除了在页面布局上直接消灭了联网搜索键外,更重要的内在改变是重构了大模型的推理过程。

DeepSeek R1在开启联网搜索后,其推理过程是先搜索网页,再根据网页内容展开思考,一般只进行一轮搜索。作为对比,豆包融合联网搜索的深度思考模式,则是先进行一番思考,然后基于思考去搜索相应网页,并结合网页具体内容再展开新的思考,往往会进行2-3轮的多轮搜索。

更形象地类比,“豆包等于把联网搜索做成了一个内置在深度思考功能内的Agent。”在国内从事大模型创业的李振看来,豆包深度思考内嵌入的联网搜索功能,做法上更像是OpenAI推出的Deep Research,或者是Grok 3推出的DeepSearch功能。

这些DeepSearch类Agent的一大特征,就在于可以操控网络浏览器获取实时信息,从而具备自主执行简单网络任务的能力。

但人类的日常生活中,并非事事都需要开启深度思考的Agent模式。豆包上述产品更新带来的一大问题就在于,通过强制将联网搜索嵌入深度思考过程,使得即便是面对简单问题,也需要机械式地进行多轮搜索,在用户体验上造成一些不必要的等待过程。当字母榜询问“今天北京天气”时,豆包在做了四轮搜索后,才给出了答案。

不过,值得一提的是,通过减掉联网搜索键,豆包在推动AI尽可能像人一样去搜索问题、寻找答案上,给出了自己的新尝试,某种程度上也相当于开始跟DeepSeek抢夺产品设计的定义权。

面对AI助手类产品越加越多的功能和按键,国内头部大厂产品经理刘凯(化名)将其归结为“抽象泄露”法则在AI领域的显现。

“抽象泄漏”,多指在软件开发时,本应隐藏实现细节的抽象化不可避免地暴露出底层细节与局限性,而抽象化本来目的就是向用户隐藏不必要公开的细节。

体现在AI类产品设计中,“即用户被迫理解不同的模型选择,如基础模型、推理模型的区别,以及勾选联网搜索和深度思考功能与否的差异等,越来越背离理想中的无缝体验。”刘凯说道。

但上述现象正有望随着模型迭代而改变。从Anthropic发布的全球首个混合模型Claude 3.7 Sonnet,到OpenAI CEO山姆·奥特曼预告中的大一统模型GPT-5,未来一个模型解决所有问题正逐渐成为共识,同样,未来一个按键就解决所有用户需求或许也将是产品演进的终局。

A

DeepSeek R1在年初爆火之后,联网搜索由此成为一个新的按键,标配在一众AI助手产品中。

最新(可能也是主流大模型公司中最后一家)选择跟进的是Anthropic,其在近日宣布聊天机器人Claude即将启用网络搜索功能,打破了自身一直维持的“自给自足”设计理念,开始提供更多实时检索信息,来回应用户的需求呼唤。

R1之前,AI助手类产品中并没有联网搜索独立按键的身影。

2022年底ChatGPT刚刚发布时,并不能进行联网搜索,大模型所提供的信息截止到2021年7月份,也暂不具备从其经验中学习的能力。

当2023年3月份百度文心一言发布后,其对外宣传的产品亮点之一,便是引入了检索增强(RAG)技术,在给模型补上获取实时信息的短板之外,还可以起到帮助削弱模型幻觉的作用。

DeepSeek在R1推理模型上新设计的联网搜索按键,则在此前检索增强技术的基础上,使得模型获取网页的数量和丰富度,进一步提高。同样以查询“今天北京天气”为例,不开启深度思考和联网搜索,仅靠检索增强支持的基础模型,一般能够检索个位数的网页链接,开启联网搜索后的深度思考模式下,模型获取的网页链接数量则飙升到数十个。

目前,根据DeepSeek给出的回答,其模型知识库仅更新到2024年7月,所以在没有勾选联网搜索的情况下,面对“今天北京天气”的询问,R1会告诉用户自己无法提供实时天气数据,并建议用户开启联网搜索功能。

之所以进入到推理模型后,大模型厂商才开始将联网搜索拆分出来,单独设计了一个新的按键,其首要原因便在于控制算力消耗成本。人工智能商业化专家丁坤博士告诉字母榜,深度思考功能本身调用的算力就更大,如果每次推理还要再进行一番联网搜索,会将算力资源的消耗量推向新高。

R1爆火之后,英伟达创始人黄仁勋就对外多次强调,推理模型正在消耗更多的计算能力,“(推理模型)可以消耗100倍以上的计算资源,而未来的推理模型将消耗更多的计算资源。”

同时,考虑到当下大模型厂商C端的商业变现手段更多通过订阅制,将深度思考和联网搜索分开设计,也是出于一种商业化的考量,“分开设计有利于形成产品梯度,刺激用户购买付费版本。”丁坤解释道。

这一点在OpenAI、Anthropic和Grok上都有着直观体现。尽管2月份后OpenAI向ChatGPT免费用户也开放了推理功能,但却从思考深度和思考次数上给出了限制。ChatGPT免费用户只能使用o3-mini模型的推理能力,如果想体验更强大的o1-Pro或o3-mini高性能版推理模型,则需要花费每月20美元或200美元,成为OpenAI的Plus或Pro付费订阅用户。

此外,从用户体验侧考量,丁坤博士认为,深度思考和联网搜索功能分开,则可以平衡用户对生成答案更快和更好之间的需求。对于那些没有时效性的问题,用户便可以只勾选深度思考,从而更快获取答案。

B

豆包一反行业常态,将联网搜索和深度思考合二为一的背后,也有着自己的诸多考量。

国内头部大厂产品经理刘凯(化名)向字母榜分析道,在产品增长中,内部往往会关注一个重要指标即用户漏斗,其分为获取、激活、留存、转化变现四大阶段。

在获取新用户上,国内外AI厂商都越来越看重“好奇流量”,“只要一个产品看起来有一些不一样的神奇功能,或者哪怕没有落地,还只是炫酷的演示Demo,就会吸引用户快速尝试。”刘凯进一步指出,激发好奇流量的手段之一,便是对产品进行微优化。

有时候,一个很小的产品变化,也会大大提高AI产品的活跃用户基数,例如去年凭借率先押注长文本出圈的Kimi,今年率先展示思维链的DeepSeek,它们都借助一次产品更新,在好奇流量的加持下,获得了梦寐以求的病毒式传播机会。

但并不是每一次产品更新,都能成功引来“好奇流量”。年初,晚于DeepSeek R1近两天发布的豆包1.5 Pro大模型,尽管在预训练和推理成本上还要低于DeepSeek V3,但却因为模型体验不如前者,而未能在舆论场上激起太多水花。

这次,豆包消灭联网搜索的产品优化之举,在过去一周左右时间后,也暂未迎来行业破圈效应。

但在国内一众AI助手产品中,豆包又有着更迫切的规模增长需求。

DeepSeek爆火之前,豆包是中国月活用户数最多的AI助手应用。在被DeepSeek赶超后,据晚点LatePost爆料,2月份的All Hands全员会上,字节CEO梁汝波列出了2025年的重点目标,其中之一便是要求团队加强规模效应,继续做大豆包用户群。

QuestMobile向《财经》提供的数据显示,截至3月4日,DeepSeek、豆包日活跃用户分别是4885万、2947万。而梁汝波今年对豆包的DAU也提出了新目标,晚点LatePost报道中,今年豆包的 DAU 目标是超过 5000 万。这意味着,在未来三个季度内,豆包日活用户规模,差不多要翻一倍。

支撑豆包追求更大规模用户,以及顶着算力消耗压力将联网搜索融入深度思考功能中的底气之一,都离不开字节在GPU上的充裕储备。

受益于推荐算法时期积累的芯片使用量,2023 年时,有媒体报道字节GPU储备已超过10 万块;在外媒最新报道中,2025年字节AI算力采购预算将高达900 亿元以上。

C

在豆包做出尝试的功能融合方面,已经有大模型厂商选择了跟进。

近期,百度通过“自研+开源模型”的组合,新上线了“自动模式”。该模式下,大模型能够自动识别用户需求,从而自主选择合适模型来生成答案,在产品界面上,不仅不再展示联网搜索键,连深度思考键也一并隐藏了起来。

在功能融合之前,一场围绕模型的融合试验,在过去一个月内已经频繁上演。

3月25日,DeepSeek官宣V3版本更新。新版本V3-0324虽然不是推理模型,但却有了一丝丝的R1味道。官方技术报告中透露,V3-0324和之前的V3使用的base模型相通,但改进了后训练方法,并借鉴了R1推理模型训练过程中的强化学习技术。

几乎同一时期,腾讯新上线的混元T1正式版推理模型,则在保证内容精细和准确度的前提下,通过首次将混合Mamba架构无损应用于超大型推理模型,将快慢思考结合了起来,从而达到缩短用户等待生成结果时间的效果。

不止国内,国外大模型公司也都在往模型融合统一的道路上迈进。

此前奥特曼在谈及GPT-5的计划时就曾经说道,模型和产品功能太复杂,未来OpenAI将实现统一,o3推理模型不再单独发布,GPT-4.5也将是OpenAI最后一个非链式思维的基础模型。

Anthropic更是抢先OpenAI一步,在2月底发布了“全球首个混合模型”Claude 3.7 Sonnet,在单一架构上整合了实时应答(Fast Thinking)和深度思考(Slow Thinking)。用户不需要在不同的模型间进行切换,而是靠模型自行判断当前问题是否需要深度思考。

未来,随着模型回归一统,在刘凯看来,模型载体之上的一系列功能按键,也有望回归更加简洁的设计,最终使得AI产品体验无限趋近于人。

之所以当前阶段一众AI助手产品加入了五花八门的功能标签,背后则是大模型产品用户渗透率还比较低的现实困境。“大部分用户还是抱着好奇心态,尝鲜过后要么想不起来用,要么不知道打开后该问什么。”刘凯表示。

基于此,眼下的AI助手类产品,为了激发用户的体验热情,往往会借鉴搜索引擎的设计理念,如向用户推送弹窗消息,在输入框下方主动设置一些供人点击的新闻链接等。

除了用户使用频率不高之外,大模型技术尚未进入成熟稳定期,也是促使其产品功能标签众多的原因之一。

国内外的一众大模型厂商,目前其实都是基于一个非确定性系统极高的模型来设计产品,这导致的一种情况是,大多数AI厂商以“模型思维来主导产品设计,而非应用思维。”李振举例称,ChatGPT起初也只是为了展示OpenAI的模型能力而构建的,并不完全是为了打造一款面向消费者端的大众应用。

就连奥特曼都在近期接受采访时坦承,当时内部只是在以一个研究实验室的标准来运行,根本没有想过会成为一家消费科技公司。

但随着模型普及教育的不断深入,越来越多大模型厂商开始重视起核心用户体验,“这就是产品一步步更像人的演化过程。”李振解释道。

参考资料:

《智谱AI CEO张鹏:当下被忽略的大模型“反共识”》腾讯科技

《字节AI再创业:独立组织、全链条的饱和出击》晚点LatePost

《字节大模型全员会,朱文佳和吴永辉一起聊了方向、组织和开源》极客公园

《Sam Altman :GPT-5 将免费开放,DeepSeek 教训了我们》APPSO

《2025 APP流量竞争新观察》QuestMobile

本文来自微信公众号 “字母榜”(ID:wujicaijing),作者:赵晋杰,36氪经授权发布。

相关文章