像核战争一样,AI可能灭绝人类:Geoffrey Hinton、Sam Altman等百名专家签署了一封公开信

账号已注销·2023年05月31日 13:30
降低 AI 灭绝人类的风险,应该与大流行病、核战争等其他社会规模的风险一样,成为全球范围内的优先事项。

多位图灵奖得主、顶级 AI 公司 CEO、顶尖高校教授,与数百位在各自领域享有话语权的专家,共同签署了一份公开信, 内容简单却有力:

降低 AI 灭绝人类的风险,应该与大流行病、核战争等其他社会规模的风险一样,成为全球范围内的优先事项。

该公开信发表在 Center for AI Safety(CAIS)上。CAIS 表示,这份简短的声明旨在就“来自人工智能的广泛的重要和紧迫的风险”这一主题展开讨论。

在这份联名公开信的人名列表中,有很多耳熟能详的名字,包括:

  • 图灵奖得主 Geoffrey Hinton、Yoshua Bengio;
  • OpenAI 的 CEO Sam Altman、首席科学家 Ilya Sutskever、CTO Mira Murati;
  • Google DeepMind 的 CEO Demis Hassabis、众多研究科学家;
  • Anthropic CEO Dario Amodei;
  • 以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。

在一份相关的新闻稿中,CAIS 表示,他们希望借此“设置护栏并建立机构,以便 AI 风险不会让我们措手不及”,并将对 AI 的警告比作“原子弹之父” J.Robert Oppenheimer 对原子弹的潜在影响的警告

然而,一些 AI 伦理学专家却不以为然。Hugging Face 的机器学习研究科学家 Sasha Luccioni 博士将这一公开信比喻为“欺骗/迷惑公众的行为”(sleight of hand)。

她表示,将 AI 的假设性生存风险与大流行病和气候变化等非常实际的风险放在一起提及,这对公众来说是非常直观的,更容易让他们相信。

但这也是一种误导,“将公众的注意力吸引到一件事(未来的风险)上,这样他们就不会想到另一件事(当前有形的风险,如偏见、法律问题)。”

一直以来,吴恩达(Andrew Ng)和杨立昆(Yann LeCun)都是 AI 技术的积极拥抱者。 在这封公开信发出后,吴恩达便在个人推特上发表了个人看法:

当我想到人类大部分地区的生存风险时:

下一个大流行病;

气候变化→大规模的人口减少;

另一颗小行星。

AI 将是我们解决方案的一个关键部分。因此,如果你想让人类在未来 1000 年生存和发展,让我们让人工智能走得更快,而不是更慢。

随后,杨立昆转发了这条推特并戏谑称,“在我们拥有即使是狗级别的 AI(更不用说人类级别)的基本设计之前,讨论如何使其安全是不成熟的(想法)。”

自 ChatGPT/GPT-4 等 AI 大模型问世以来,一些 AI 安全研究人员开始担心,一个比人类聪明得多的超级智能 AI 很快就会出现,逃脱囚禁,并控制或消灭人类文明。

图|一张由人工智能生成的“AI 占领世界”的图片

虽然这种所谓的长期风险在一些人的脑海中挥之不去,但其他人认为,就这一话题签署一封模糊的公开信,对于那些可能对其他 AI 风险(如 deepfake)负有责任的企业而言是一种缓解方法。Luccioni 认为,“这使得签署这封信的人成为故事的英雄,因为他们是创造这种技术的人。”

在 Luccioni 等批评者看来,AI 技术并非无害,相反,他们认为优先考虑假设的未来威胁是对目前存在的 AI 风险的转移,这些危害带来了棘手的伦理问题,而销售 AI 工具的大公司宁愿选择忘记这些问题。

因此,即使有一天 AI 可能会威胁到人类,但这些批评者认为,关注 2023 年的一个不明确的末日场景是没有建设性的,也没有帮助。他们指出,你不可能研究不真实的东西。

“试图解决想象中的明天的问题,完全是浪费时间。解决今天的问题,明天的问题将在我们到达那里时得到解决。”

参考链接

https://www.safe.ai/statement-on-ai-risk#open-letter

https://www.safe.ai/press-release

本文来自微信公众号“学术头条”(ID:SciTouTiao),作者:学术头条,36氪经授权发布。

+1
14

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

免费的干不过收费的

2023-05-31

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业