动动念头就能操作手机,MIT意念控制设备,不动嘴不动手,“读心”准确率92%
不动嘴不动手,只靠意念就能对手机发号施令?
请看VCR:
两个人语言不通,现在也可通过意念说话,然后直接翻译成对方的语言,并通过骨传导耳机输出。
MIT初创团队推出了一款非侵入式穿戴设备,能够让人类实现用意念“说话”。
这个穿戴可以让人类随时随地实现无动作书写、创作、交流,甚至帮助有特殊言语障碍的人恢复声音。
研发团队表示,打造这款穿戴设备是为了延伸人类思维,让每个人都能轻松探索自己的世界。
智能穿戴学会“读心术”
这款穿戴名字叫AlterEgo,来自于拉丁语,意思是“另一个自我”。
AlterEgo是一种可穿戴的静默语音交互平台,允许用户在没有声音或明显动作的情况下与计算设备进行双向交互。
这意味着用户可以像自言自语一样在心里“说话”,而系统能够理解并处理这些“静默”输入,词汇准确率可达92%。
它还能通过骨传导耳机将反馈提供给用户,通过不干扰外部环境的方式直接传输到用户的耳朵里,提供完整的输入-输出交互体验。
AlterEgo支持用户通过静默语音控制各种应用程序。例如,用户可以通过内心默念数学计算式,设备会进行计算并反馈结果。此外,用户也可以设置提醒、安排日程等,系统会通过骨传导耳机提供实时反馈。
比如可以指着手里的明信片,问它上面画的人物信息,然后让它提醒你记得回信。
如果两个人同时戴上,还可以彼此之间靠意念进行交流。
并且AlterEgo采用非侵入式设计,无需进行任何植入操作,穿戴简便,通过蓝牙就能和其他设备连接。
那么,AlterEgo具体是如何工作的呢?其关键技术可以追溯到团队在2018年发表的论文。
AlterEgo系统的原理基于神经肌肉信号的捕捉和解析。
人类在进行语言表达时,通常会激活一系列面部和颈部肌肉,这些肌肉在进行内部发声(如内心默念、无声发音)时也会产生微小的肌肉运动。
这些运动会导致肌肉区域的电活动,从而产生神经肌肉信号。AlterEgo通过捕捉这些微弱的肌肉电活动信号来识别用户的意图,而这些信号并不需要发出声音或有明显的面部运动。
捕捉到的神经肌肉信号是时变的电位差,这些信号需要经过一系列的信号处理步骤来提取有效信息:
- 去噪:原始的肌肉信号可能包含噪声或由于环境干扰产生的伪信号,系统会使用滤波算法来去除不必要的干扰,确保信号的清晰度;
- 特征提取:信号经过滤波处理后,系统会对信号进行特征提取,从中提取出能够代表语音的特征向量。
提取到的特征被输入到一个CNN网络中进行分类,一旦系统识别了静默语音,它会通过计算得到相应的输出。
MIT初创团队打造
AlterEgo项目起源于2018年的MIT实验室。
Arnav Kapur是AlterEgo系统的主要创始人之一,在开发AlterEgo之前,他曾在多个领域进行过技术研究,包括生物医学、人工智能和人机交互。
他的研究目标是通过可穿戴设备来增强人类与计算机之间的自然交互,尤其是通过神经肌肉信号的采集来实现静默语音识别。
AlterEgo是他在MIT的博士研究项目之一。
Utkarsh Sarawgi是AlterEgo项目的另一位重要贡献者,也是MIT Media Lab的博士生,的研究兴趣主要集中在人机交互、可穿戴设备和嵌入式系统等领域。
他与Kapur共同开发了AlterEgo系统,并在该项目中扮演了关键角色,尤其是在系统的硬件设计和信号处理部分。
Eric Wadkins也是AlterEgo项目的核心成员,曾在MIT Media Lab担任研究助理。
在AlterEgo项目中,Wadkins和Sarawgi一样主要负责信号处理和硬件实现方面的工作。
他参与了开发用于捕捉神经肌肉信号的设备,并优化了系统的性能和可穿戴性。
此外,Wadkins还参与了与多发性硬化症(MS)患者的合作研究,探索AlterEgo系统在帮助患有发音障碍的患者进行无声交流方面的应用。
MIT Media Lab教授Pattie Maes是AlterEgo项目的指导导师,其研究领域涵盖了多种前沿科技,包括人机交互、增强现实、人工智能和计算机辅助设计。
目前,该项目已经在今年年初分拆为盈利性公司,继续推进技术的商业化应用。
参考链接:
[1]https://x.com/alterego_io/status/1965113585299849535?s=46
[2]https://www.media.mit.edu/projects/alterego/overview/
本文来自微信公众号“量子位”,作者:克雷西,36氪经授权发布。