医疗AI的“希波克拉底誓言”:当技术创新遇上伦理边界的终极解法

硅兔赛跑·2025年12月19日 11:44
医疗AI新趋势:精确克制胜于无限生成。

当全球AI竞赛聚焦于 “更大参数、更高分数” 时,Hippocratic AI和Abridge——这两家风格迥异的医疗科技公司——正悄然改写游戏规则。

一边是 “安全第一” 的伦理坚守者:Hippocratic AI以医学伦理基石命名,创始人团队来自斯坦福医学院和顶尖AI实验室,旨在构建永远不会越界的医疗对话系统。

一边是 “极致聚焦” 的效率革新者:Abridge源自卡内基梅隆大学的人机交互研究,由连续创业者领导,专注于解决医疗记录这一单点痛点,不染指任何临床决策。

它们看似选择了两条不同的道路,却共同证明了一个反直觉的真理:在高风险的真实医疗世界中,最有价值的AI能力可能不是“无限生成”,而是 “精确克制” 。

01┃被叫停的 “完美模型” :当技术超越责任框架

医疗AI的发展历程中有一个标志性的转折点。据《华尔街日报》等媒体报道,几年前,美国凯泽医疗集团(Kaiser Permanente)内部研发出一套能够提前数小时预测患者病情恶化的AI系统。在测试环境中,这个模型表现卓越,能够提前识别超过80%的潜在ICU病例,理论上每年可以避免大量医疗危机。然而就在临床部署前的最终评审中,项目被紧急叫停了。

这个决定的背后,隐藏着一个比技术性能更根本的问题。《新英格兰医学杂志》对此作出了精辟的总结:“在医疗AI领域,问责制是比准确性更根本的障碍。” 当算法的判断开始直接影响人类的生命,责任划分与权力边界便成为无法回避的根本问题。

02┃Hippocratic AI:把医学誓言编码进算法

Hippocratic AI 在 2025 年完成 1.26 亿美元 C 轮融资,公司估值约 35 亿美元,累计融资超过 4 亿美元。本轮由 Avenir Growth 领投,投资方包括 Andreessen Horowitz (A16z) 、General Catalyst、CapitalG(谷歌成长基金) 等一线机构,显示资本对其“安全可控医疗 AI”路径的高度认可。

“首要原则是绝不伤害病人”——这句源自医学伦理的核心原则,被Hippocratic AI转化为可执行的工程约束。这家公司的创始团队来自斯坦福医学院和顶尖AI实验室,他们的目标不是构建一个“无所不能”的医疗AI,而是创造一个“永远不会越界”的对话系统。

Hippocratic AI设计的响应机制体现了这种安全优先的哲学。据该公司在技术演示中展示,当对话涉及诊断建议或用药指导时,系统不会试图给出回答,而是会立即停止生成内容并建议转接人工。即使患者没有直接询问,只要对话中出现了“胸痛、呼吸困难和家族病史”这样的高危组合,系统也会自动提升警戒级别。

最值得关注的是其系统架构设计。根据Hippocratic AI在行业会议上的披露,其最新的“北极星”系统拥有超过3万亿参数,由数百个专门训练的大模型组成一个“星座系统”。这些模型各司其职——有的专门核对药物名称,有的检查剂量安全,还有一个主要负责“说话”的主模型确保对话流畅。它们互相监督、交叉验证,就像一个顶级的医疗团队在协作。

该公司的技术负责人在接受采访时解释道:“我们训练AI通过专业护理考试,不是为了让它替代护士,而是为了让AI更准确地理解哪些问题自己无权回答。” 这种在能力边界处的克制,正是Hippocratic AI最核心的创新。

03┃Abridge:聪明的“记录员”,不做“决策者”

Abridge 于 2025 年完成 3 亿美元 E 轮融资,由 Andreessen Horowitz(a16z)领投,Khosla Ventures 等参投,估值约 53 亿美元。截至目前,Abridge 累计融资接近 8 亿美元,并已在上百家美国医疗系统落地,成为生成式医疗文档赛道中最具规模效应的公司之一。

如果说Hippocratic AI的策略是“在边界处设防”,那么Abridge选择的则是更为彻底的路径——从一开始就不进入决策领域。这家源自卡内基梅隆大学的公司将自己定位为 “AI医疗记录员”,其核心功能简单而明确:在医患交谈过程中,自动将对话转化为结构化的临床记录。

Abridge的影响力通过数字可见一斑:据STAT News报道,该公司已被美国300多家医院采用,包括梅奥诊所、约翰·霍普金斯医学中心等顶级医疗机构。医生们的反馈数据显示,使用后平均每天可节省约2.5小时的文书工作时间。

更深刻的影响体现在医生的职业体验上。医疗媒体《凯撒健康新闻》在一篇报道中记录了多位医生的亲身经历:一位从业多年的医生坦言,“原本每天要带工作回家,现在终于不用了”;另一位医生表示,“有人告诉我‘从医的快乐回来了’”;更有医生直言,“这甚至可能延长我的职业生涯”。

正是这种清晰的自我限定,让Abridge能够快速通过严格的医疗合规审查。“我们不做诊断,我们只做诊断过程的记录者。”Abridge CEO这样定义公司的边界,“这种克制不是能力不足,而是战略选择。”

04┃从医疗到全局:高杠杆AI系统的 “停机逻辑”

医疗领域的这些实践揭示了一个具有普适性的原则:任何高影响力AI系统的长期价值,不仅取决于它能做什么,更取决于它在不该做什么时能否可靠地停止。这一“安全优先”的理念正在多个关键领域成为新的标准。

在金融交易领域,顶级投资机构为AI系统设置的 “熔断机制” 体现了同样的逻辑。彭博社的报道显示,多家对冲基金在2020年市场剧烈波动期间,都依靠这种机制避免了灾难性损失。一位基金经理坦言:“在极端市场环境下,不亏钱比赚钱更重要。”

在自动驾驶领域,Waymo等公司的 “责任敏感安全” 模型要求车辆在任何情况下都不得为避免事故而采取违反交通规则或危及他人的操作。公司工程师在接受《麻省理工科技评论》采访时解释道:“我们的AI首先要遵守交通规则,其次才是应对突发情况。”

在法律辅助场景,AI系统的设计同样遵循着明确的能力边界。斯坦福大学的一份研究报告指出,这些系统可以提供类似的案例参考和风险因素分析,但绝不能给出具体的判决建议——最终裁量权必须保留在人类法官手中。

05┃新创新范式:在约束中创造价值

医疗AI的实践正揭示一个逐渐清晰的行业共识:在那些风险不可逆的关键领域,衡量AI系统的标尺正在悄然改变。系统的核心价值不再仅仅取决于 “它能多高效地运行”,而越来越偏向于 “它能多可靠地停止”。这种对“主动设限”能力的追求,正在重新定义多个前沿行业的竞争逻辑。

这一系列变化正将企业的创新方向推向一个更深刻、更根本的层面。创新的焦点正在从追求模型在理想状态下的 “峰值表现”,转向构建系统在最恶劣情境下的 “底线保障” 。市场的竞争逻辑也从简单比拼 “功能广度” 的军备竞赛,演进为如何清晰定义并让人信服“责任边界”的信任博弈。与此同时,优秀的产品设计不再只关注优化日常的“交互体验”,而必须深思熟虑地规划在关键决策点,如何让人类专家能够平滑、无感地介入并承担责任的“接管流程”。

这场转变的深层本质,是一场价值观的工程化革命。它将“安全”、“责任”、“伦理”这些曾经抽象、滞后的价值理念,转化为具体、可测试、可迭代的工程特征,并将其前置到产品设计的源头。最终,企业向市场交付的将不再仅仅是提升效率的技术工具,而是一份完整、可信、可托付的风险管理方案。在这个范式下,最坚固的商业护城河,正是由最精密的“刹车系统”构筑而成。大智知止,明者善约。

本文来自微信公众号“硅兔君”(ID:gh_1faae33d0655),作者:硅兔君,36氪经授权发布。

+1
3

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

再见了,万宁!

6小时前

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业