针对那些受到突发性或退行性语言障碍影响的人群,OpenAI与Norman Prince 神经科学研究所合作,正在研究AI在临床设置中的应用。他们最近启动了一个试点项目,为那些因癌症或神经病理学问题而遭受语言障碍的患者提供Voice Engine服务。这项技术的一个显著优点是它仅需很短的音频样本即可运作。因此,医生Fatima Mirza、Rohaid Ali和Konstantina Svokos得以使用一位年轻患者之前为学校项目录制的视频音频,成功恢复了她因血管性脑瘤而失去的流畅语言能力。原录音:生成的语音:
潜在风险与安全措施
想一想,如果有人只用几段录音就能复刻出你的声音,这听起来是不是虽然酷炫,但也挺骇人听闻? 技术在进步,我们能做的事情越来越神奇,比如让失声的人再次“说话”,或者让你听到一个从未学过外语的朋友用流利的法语或日语跟你聊天。 但是伴之而来的,也会有人用你的声音去骗你家人的钱,或者在网上放一个假的你说话的录音,甚至随着这些生物特征能用AI生成,先是人脸、声音那这样高速发展的双刃剑技术进入我们的世界,会不会带来失控呢? 而且Voice Engine的出生刚好撞到枪口! 上个月,联邦通信委员会(FCC)因收到使用乔·拜登总统 AI 克隆声音的骚扰电话而禁止使用 AI 生成的语音电话,全国拉响了警铃。 “这是一个敏感的领域,处理得当极为重要,”OpenAI 产品经理 Jeff Harris 在采访中指出,公司内部也承认,生成人类声音的技术确实携带着严重的风险。 Open AI 正在探索为合成声音添加水印或其他控制措施的方法,以防止技术被用来模仿政治人物或其他公众人物的声音。 OpenAI 希望引发有关合成声音负责任使用的对话,以及社会如何适应这些新兴技能的讨论。根据这些对话和小规模测试的结果,OpenAI 将做出更明智的决策,以确定是否以及如何在更大范围内部署这项技术。 而现阶段,由于技术目前只面向合作伙伴的使用,OpenAI要求使用者们遵循一项使用政策,该政策禁止未经同意或合法权利冒充他人或组织,要求合作伙伴从原始说话者处获得明确和知情的同意,并禁止开发者构建允许个人用户创建自己声音的工具。 合作伙伴还必须向其听众清楚地披露他们听到的声音是由 AI 生成的。此外,还实施了一系列安全跟踪措施,包括水印技术,以追踪任何由 Voice Engine 生成的音频的来源,以及主动监控其使用方式。