Websearch.Plus:瞄准AI Agent的亿万级搜索市场,打造超高性价比搜索工具
在大语言模型(LLM)的浪潮中,一个关键痛点逐渐浮出水面:模型的训练数据存在“知识截止点”,且无法动态更新。当用户需要获取实时信息或训练数据未覆盖的内容时,必须依赖外部工具(如Web搜索)。然而,现有的搜索工具要么成本高昂,要么效率低下。在这一背景下,由资深互联网产品经理李乐创立的WebSearch.Plus应运而生,试图通过技术创新破解这一行业难题。
WebSearch.Plus的研发动机来源于李乐对LLM生态链的深度观察。2024年,他在接触多家AI创业团队时发现,无论是构建行业Agent还是开发深度研究工具,Web搜索已成为LLM应用的标配能力。然而主流厂商的工具存在价格昂贵、接口封闭、搜索结果低效等问题:例如OpenAI按次计费(每次0.03美元),搜索结果常夹杂大量无关信息;第三方服务商如Tavily虽然费用更低,但信息过滤能力有限,导致LLM推理时上下文冗长、处理成本激增。
“Web搜索工具的搜索结果质量直接决定LLM的推理结果质量以及推理成本,过多过杂的搜索结果加大了LLM推理的上下文,推高了推理的成本,降低了推理的效率,最关键的是可能引起LLM的幻觉”。李乐带领团队打造出“智能过滤+按量计费”的差异化方案。
技术突破:混合搜索引擎驱动效率革命
项目的核心创新在于自研的HybridSearch引擎。与传统工具简单返回全文或粗糙过滤不同,这套系统通过四层处理实现精准降本:
1. 广告剔除:通过规则引擎自动识别并移除网页中的推广内容
2. 智能分块:支持多语言的智能分块技术可以将网页内容分割为语义连贯的段落
3. 动态加权:综合关键词匹配度、语义相关性、时效性等维度进行评分
4. 阈值过滤:仅保留高相关度段落(通常为原始内容的30%)
这种处理方式既保证了LLM获得高质量信息,又将上下文规模压缩至竞品的30%以下。测试数据显示,在使用GPT-4.1对相同的用户提示词进行推理时,分别调用OpenAI搜索工具、WebSearch.Plus以及Tavily,均得到了基本相同的最终推理结果,但WebSearch.Plus的搜索成本只有OpenAI搜索工具的1/10,LLM的推理上下文不到Tavily的1/2,且在大多数案例情况下,推理的综合成本(推理+搜索)为使用OpenAI搜索工具的1/6,使用Tavily的1/4。
在商业化层面,WebSearch.Plus打破行业按次收费惯例,采用按Token消耗量计费模式(每百万Token收费0.25美元)。对开发者而言,这种与LLM推理费同构的计费方式更易进行成本预测和优化。这对于占搜索需求大部分的”轻量级“搜索,如天气预报、股票价格等非常友好,可以在消耗很少token的前提上完成搜索。但如果调用OpenAI/Google等厂商的Web搜索工具,无论搜索内容是什么都需要每次支付$0.025-0.035。
市场前景:抓住AI Agent爆发期红利
根据Langchain发布的行业报告,调用外部工具的AI应用占比已从2023年的0.5%跃升至2024年的21.9%,其中Web搜索是最频繁被调用的功能。李乐预判,随着2025年AI Agent的规模化应用,面向金融、法律、医疗等场景的定制化搜索需求将迎来井喷。
团队已规划清晰的技术路线:2025年四季度将完成对金融、法律、医疗等需求量最强的几个行业的垂直搜索工具,为Agent规模化落地行业应用提供基础搜索组件,同时提供开发者将自有文档上传后与互联网信息混合搜索的能力。
目前,WebSearch.Plus主攻海外市场,已启动与Langchain等开发框架的生态合作,并通过开发者社区的精准运营积累种子用户。在商业化路径上,团队计划2025年四季度实现月收入4万美元,并在次年将付费用户规模扩大至500家企业。
创业者视角:以数据工程经验破局AI基建
作为曾在高德、腾讯负责数据系统的“老将”,李乐将地图领域处理海量动态数据的经验移植到搜索工具开发中。“自动驾驶需要实时处理TB级道路信息,这与LLM应用对时效性数据的需求异曲同工。”在他看来,WebSearch.Plus的终极目标是成为“LLM时代的信息管道”——通过持续优化信息获取效率,助力AI应用突破数据边界。随着产品正式上线,这个由技术老兵主导的项目,正在智能化浪潮中开辟属于工具层创新的新赛道。