误差不到400票,16岁CTO带队,用5000个AI押中了美国选举
不找人聊,就能知道人在想什么?一群00后正在用AI改写调研行业。
2024年,一群平均年龄18岁的年轻人用约5000次AI对话(每次仅需30-90秒),便以接近零的成本,成功预测了美国纽约州民主党初选的结果,票数误差不到400张。
不到两年,这群年轻人所创立的AI调研公司Aaru,已拿下埃森哲、安永和IPG等顶级合作伙伴,并在2025年底以10亿美元估值完成5000美元A轮融资。
这一切的背后,是一个简单到近乎狂妄的理念——用“无限模拟”取代“有限样本”。
Aaru的核心不是让AI变得更会“问问题”,而是让AI学会“当人”。他们训练了成千上万个AI智能体,每个都被赋予复杂的人口属性和行为认知模式,像一个微缩版的真人。
当这些“合成人”在数字世界里相互作用,就能回答以前无法回答的问题,如人群面对新产品、新政策或新广告时的集体反应。
Aaru所代表的“合成行为”处于技术栈顶层,它正与其他“合成互动” (如Keplar、Outset) 与“合成数据” (如Gretel、YData) 的探索者,重塑价值800亿美金的调研市场。
01 当AI Agents像人一样思考
当市面上大多数AI竞争者还在围绕“如何更高效地收集人的洞察”展开角逐时,Aaru的思路有点不一样:如果不依赖真实的人,而是直接“合成”出无限个能模拟人类行为的数字智能体,来预测群体反应呢?
他们的核心叫做“仿真预测”,“建模-模拟-预测”,主打一个“如果……会怎样?”的动态推演。
技术路径是训练出大量AI Agents(多智能体系统,MAS),这些Agent依赖于多个来源的结构化和非结构化数据,如社会经济统计、消费者行为数据、社交媒体情绪信号等。
每个智能体不仅携带年龄、收入等标签,更被赋予了行为模式、决策动机甚至认知偏好,相当于一个个“仿真用户”。
把这些智能体组合起来,就形成了一个动态、可交互的人类行为知识库。换句话说,这不止是合成数据,它直接合成了人。
比如,Aaru训练出特定人群标签如“25-30岁一线城市白领”后,会模拟其决策逻辑,例如面对企业新产品时是否购买、面对公共事件时的态度倾向等。
这些“合成人”能做什么?
Aaru找到了一个极致展现自身优势的“灯塔场景”——政治选举预测。
他们用约5000次AI问答 (每次仅需30-90秒) ,成功预测了2024年美国纽约州民主党初选的结果,与实际票数相差不足371票,而成本据称只有传统民调的1/10。
如果交给传统市场调研,可能耗时数周、花费数十万美元。
这个场景具有结果公开、验证周期短、胜负分明的特点,其成功预测且成本极低,成为了其技术能力的“铁证”。
Aaru的准确率也得到了认可。IPG (洲际传播集团) 的首席解决方案官评价,Aaru的准确度“高于任何网站调查、民调或焦点小组”。
除了政治选举,Aaru的应用还伸展到企业决策和公共策略等领域。项目规模也能弹性缩放,从几个智能体的小测试到十万量级的大规模模拟都能支持。
目前,Aaru的产品主要分为三块:
①Lumen,面向企业决策模拟。它能模拟企业高管、高净值客户等难以触达的群体,用于产品概念测试、超定向营销策略验证等。目标受众如“每年消费3万美元购买手袋的人群”,“农村市场中患有糖尿病的新手父母”。
②Dynamo模拟人性,专注于选举预测。通过让大量智能体持续接收并处理信息,模拟选民接触媒体并更新观点)。在政治选举场景中,每个AI智能体会持续接收信息,模拟真实选民如何获取媒体内容并更新观点,从而替代传统民调来预测选举结果。
③Seraph,则为公共部门设计,其支持配置任意时间、地点和媒介环境,用于在动态环境中模拟舆情与信息传播,以辅助高风险决策。
目前,Aaru已经与 IPG合作成立了“模拟工作室” (Simulation Studio) 。
简单来说,IPG将把Aaru的“人群模拟”能力,接入自家的消费者数据平台Acxiom。这意味着,在合法合规使用数据的前提下,模拟出的人群画像将更精细、更贴近现实,从而帮助品牌进行细分和市场触达。
值得一提的是,推动这套设想落地的,是一个平均年龄仅18岁的年轻团队,其中公司的CTO更是只有16岁。
▲ Cam Fink、Ned Koh、John Kessler(从左到右)
Cam Fink,20岁,联合创始人&CEO,有Kleiner Perkins、RSI等机构工作/研究经历;
Ned Koh,20岁,联合创始人,曾就读于哈佛大学,有西北大学研究、创企联创的经历;
John Kessler,16岁,联合创始人&CTO。
数据是新的黄金。Aaru正用一套近乎科幻的方法,尝试撬动依赖经验和样本的传统调研行业,巨头们的入场与合作,已经是一个不容忽视的信号。
02 用“无限模拟”,取代“有限样本”
800亿美金调研市场背后的劳动力体量庞大,传统模式的核心是“抽样-询问-统计”,其瓶颈在于样本的有限性、成本的高昂与反馈的滞后。
AI正以两种路径重塑这个行业:
访谈增强类
第一类公司聚焦于研究流程的“前台”,用AI模拟互动过程 (访谈) ,但仍与真人交互。
壁垒在于自然交互技术和流程自动化,通过规模化获取定性洞察,捕捉语气、表情等非语言线索,试图获取更深层的情感与行为洞察。
①AI语音访谈调研Keplar
Keplar是一款AI语音访谈平台,用语音AI替代传统人工访谈。其亮点在于多模态对话真实性:AI主持人能以"Ellie""Andrew"等拟人化身份进行语音访谈,参与者常忘记对方是AI,对话录音中甚至能听到直呼AI名字的自然互动。
它将任意产品问题转化为访谈指南,直接调取CRM客户名单并发数百通语音访谈,实时分析回答主题。
与传统调研公司相比,将访谈周期从数周压缩至数小时,成本降至几十分之一。差异化在于语音优先,通过语音语调、停顿节奏建立信任,获取更深层的情感化反馈,其交付物是可直接用于汇报的PPT和报告,而非原始数据。
②视频深度访谈Listen Labs
Listen Labs是红杉资本重注的AI用户研究平台,累计融资2700万美元。其独特之处在于视频访谈的深度与规模平衡:AI主持人可进行视频访谈,参与者通过视频、语音、文字或屏幕共享回应,还原了面对面访谈的丰富度。
核心差异是视频+AI分析的组合。平台强调"定量规模的定性深度",能同时执行数百个视频访谈,AI自动编码回答、识别主题并生成报告。
Listen Labs捕捉视觉线索,如表情、操作行为、环境背景,更适合UX研究和产品测试。其客户覆盖消费品、医疗等大型企业。
③AI主持人访谈Outset
Outset专注AI主导的深度访谈,总融资2100万美元,由8VC领投、贝恩资本参与。其平台让AI主持人通过视频/语音与数千名参与者对话,自动合成结果。
核心亮点是超大规模与速度:25个深度访谈传统需4-6周,Outset可在1周内完成250个访谈并自动分析,速度提8倍、成本降81%倍。
差异化在于全研究流程自动化,从创建讨论指南、招募受访者到分析结果、生成报告,研究团队只需输入研究问题,平台自动处理其余环节。
客户包括雀巢、微软、慧俪轻体等500强企业。与Listen Labs相比,Outset更强调端到端自动化和企业级集成能力,适合需要快速、大规模获取客户"为什么"的复杂研究项目。
④神经营销AI平台Neurons
Neurons专注广告和创意效果预测,基于认知神经科学、机器学习与心理学构建。其亮点是秒级注意力预测:上传广告素材,AI在数秒内生成热力图,预测观众注意力分布,并给出参与度、广告回忆度等KPI评分。
平台服务于广告代理商和品牌营销团队,解决"创意是否有效"的痛点,减少反复修改。
与访谈类平台收集用户"说"什么不同,Neurons测量用户"看"什么,预测下意识反应。其核心价值是数据驱动创意决策,在投放前识别最佳素材,降低风险,提升ROI。
⑤AI用户研究平台Synthetic
Synthetic核心是通过模拟访谈收集产品反馈。其技术基于多智能体系统,调用GPT、LLaMA、Mistral等模型,每个合成用户采用五因素人格模型 (FFM) ,模拟认知偏差与行为模式,在和真人对话中调整信任度与语气。
平台支持企业上传历史访谈、客服工单等专有数据来定制合成真实的用户背景。
其客户主要来自制药、汽车、消费品等行业,平台通过SOC 2认证并提供API接口。某药企案例显示,专家访谈周期从3个月缩短至数小时。平台公开披露其合成结果与真实用户洞察匹配度约为85-92%。
合成数据公司
第二类公司则专注于技术“后台”,即数据本身。壁垒在于数据保真度、隐私合规与系统集成,负责为上层模型和传统分析提供安全、优质的“燃料”。
①开发者友好的合成数据API平台Gretel Labs
Gretel Labs核心亮点是即时生成与隐私保证。它提供面向工程师的SDK和API,可在现有数据管道中无缝嵌入,几行代码即可生成高保真合成数据。其自定义生成式AI模型能合成文本、时序数据,可跨表关系保持完整性,适合金融交易、医疗记录等复杂场景。
Gretel服务Techstars、HelloFresh等科技公司,满足开发测试、数据共享等高频需求,其壁垒在于低摩擦集成和模型泛化能力,而非复杂的UI或咨询服务。
②企业级合成数据平台Tonic.ai
Tonic.ai专注为财富500强提供生产数据"去敏化"方案。其差异化在于数据库子集化与关系保真:能从PB级生产数据库抽取代表性子集,同时保持跨表外键关联、时间戳逻辑和业务流程完整性,这对测试复杂企业系统 (ERP、CRM) 不可或缺。
技术上采用结构感知生成,先解析数据库Schema,再逐表训练生成模型,确保合成数据在结构上与原系统100%兼容。其客户覆盖Adobe、eBay等,核心价值是合规替代传统数据脱敏,避免掩码、加密导致的测试覆盖率不足。
③数据隐私与分析增强平台YData
YData的独特之处在于合成数据与数据质量闭环。它不仅生成数据,更前置诊断数据缺陷(缺失值、偏差、不平衡),再针对性合成补充样本,提升模型训练效果。
它的Fabric平台覆盖从数据标注、生成到模型训练的全流程,尤其适合自动驾驶、金融风控等对数据质量敏感的领域。
与多数主打隐私保护的合成数据工具不同,YData强调自己是一个“AI开发加速器”,其合成数据不只“看起来像”真实数据,更追求让下游AI学得更好、预测更准。
无论是“前台”还是“后台”,他们共同指向一个转变:市场研究正从依赖“有限样本”的被动收集,迈向运用“无限模拟”的主动预测。一个由AI驱动、速度与深度并重的新研究时代已是历史趋势。
本文来自微信公众号“硅基观察Pro”,作者:硅基君,36氪经授权发布。















