4 月 3 日消息,据外媒 TechSpot 本周三报道,美国加利福尼亚大学伯克利分校和旧金山分校的研究人员开发了一种脑机接口系统,能够恢复重度瘫痪患者的自然语言表达,为失去语言能力的人群提供了实时沟通的新希望。
研究团队利用 AI 的进展,成功解决了个体有意说话与发出声音之间的时间差。该系统通过流式传输技术,几乎实时地将神经信号解码为可听见的语言。
加利福尼亚大学伯克利分校的副教授、该研究的联合首席研究员戈帕拉・阿努曼奇帕利(Gopala Anumanchipalli)解释道:“我们的流式传输方法将 Alexa 和 Siri 等设备的快速语音解码能力引入到神经假体中。通过使用类似的算法,我们发现能够解码神经数据,并首次实现几乎同步的语音流传输,最终得到了更自然、流畅的语音合成。”
这一技术对改善 ALS(渐冻症)或中风后瘫痪患者的生活具有巨大潜力。据了解,该系统通过采集来自大脑运动皮层的神经数据,并利用 AI 解码这些活动,生成语音。
在一项临床试验中,研究人员对 47 岁的安(Ann)进行了测试。安在 18 年前中风后失去了语言能力,她通过脑部植入电极记录大脑活动,默默尝试说出屏幕上显示的句子。通过一个训练有安受伤前声音的 AI 模型,研究人员成功地将这些信号解码为可听见的语言。
这一方法的关键突破之一是实现了近乎实时的语音合成。以往的脑机接口系统解码单个句子时通常会有高达八秒的延迟,而这项新方法大大减少了延迟。研究人员能在不到一秒的时间内,从意图信号中得到第一个声音。
该内容转自IT之家
本文共 530 个字数,平均阅读时长 ≈ 2分钟
喜欢就支持一下吧
本站为个人博客,博客所发布的一切破解补丁、注册机和注册信息及软件的文章仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络,版权争议与本站无关,您必须在下载后的24个小时之内从您的电脑中彻底删除上述内容。
访问和下载本站内容,说明您已同意上述条款。
本站不贩卖软件,所有内容不作为商业行为。如果有侵犯您的权益请点击“关于”联系WFXL,核实后会及时删除
版权属于:新闻发布
作品采用《署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)》许可协议授权
评论 抢沙发