3 月 11 日消息,《消费者报告》(Consumer Reports)发布的一项最新研究显示,市场上的多款热门语音克隆工具未能设置有效的安全防护机制,以防止欺诈或滥用行为的发生。
注意到,《消费者报告》对来自六家公司的语音克隆产品进行了调查,这些公司包括 Descript、ElevenLabs、Lovo、PlayHT、Resemble AI 和 Speechify。研究团队重点考察了这些产品是否具备能够阻止恶意用户未经授权克隆他人声音的机制。然而,调查结果显示,仅有 Descript 和 Resemble AI 两家公司采取了措施以防止工具被滥用。其他公司仅要求用户勾选确认自己拥有克隆声音的合法权利,或进行类似的自我声明。
《消费者报告》政策分析师格蕾丝・盖迪(Grace Gedye)指出,如果缺乏足够的安全措施,AI 语音克隆工具可能会极大地加剧冒名顶替诈骗的风险。她在声明中表示:“我们的评估表明,企业可以采取一些基本措施,增加未经授权克隆他人声音的难度,但遗憾的是,部分公司并未采取这些措施。”
该内容转自IT之家
本文共 312 个字数,平均阅读时长 ≈ 1分钟
喜欢就支持一下吧
本站为个人博客,博客所发布的一切破解补丁、注册机和注册信息及软件的文章仅限用于学习和研究目的。
不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。
本站信息来自网络,版权争议与本站无关,您必须在下载后的24个小时之内从您的电脑中彻底删除上述内容。
访问和下载本站内容,说明您已同意上述条款。
本站不贩卖软件,所有内容不作为商业行为。如果有侵犯您的权益请点击“关于”联系WFXL,核实后会及时删除
版权属于:新闻发布
作品采用《署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)》许可协议授权
评论 抢沙发