随着AI技术的飞速发展,网上“克隆”他人声音已成为可能,这一技术的滥用也导致了多起纠纷。近日,北京互联网法院一审宣判了全国首例AI生成声音人格权侵权案,明确在声音具有可识别性的前提下,自然人声音权益的保护范围应涵盖AI生成声音。此案揭示了AI技术在声音合成方面的应用所带来的潜在风险,并强调了保护个人声音权益的重要性。
据了解,这起案件涉及AI技术被用于模仿他人声音,并造成了实际的人格权侵害。专家指出,AI技术可以实现对图像、声音、视频的篡改、伪造和自动生成,其效果足以以假乱真。不法分子可能利用此类技术冒充熟人实施电信诈骗,对社会公共利益构成威胁。
最近江苏句容的杨女士就遭遇了此类诈骗。在收到自称是她“女儿”的语音信息后,杨女士被骗取了3.5万元报名费。对此,办案民警反复提醒:“遇到转账一定要慎之又慎,眼见不一定为实。”
而“AI复活逝者”则是AI技术应用的另一个极端例子。通过深度学习逝者生前的文字、音频、视频资料,AI能够创造出与逝者极为相似的虚拟形象。在市场上,甚至已经出现了专门提供此类服务的网店,他们声称可以让动态照片开口说话,修复合成微笑,定制怀念视频。
北京市京师律师事务所律师许浩表示,自然人的声音作为人格权的一种,受到民法典的保护。他强调,任何人不得丑化、污损或伪造他人声音,更不可以未经本人许可模仿他人声音获利。他提醒公众注意保护自己的声音权益,警惕AI技术的滥用。
【网信说法】
对于AI语音合成技术背后的侵权风险,相关部门和网络平台已着手监管和规范,尝试在技术发展和法律保障之间达到平衡。
2022年11月,国家网信办等部门发布《互联网信息服务深度合成管理规定》,要求任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息;可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识。
2023年7月,国家网信办等部门发布《生成式人工智能服务管理暂行办法》,此举标志着生成式AI有了专门性行政法规。
该办法第七条规定,生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,要求必须使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。
2023年9月,科技部等10部门印发的《科技伦理审查办法(试行)》,列出了需要开展伦理审查复核的科技活动清单,其中就包括具有社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发等。
与此同时,相关平台也在尝试加强治理。2023年5月,抖音发布关于人工智能生成内容的平台规范暨行业倡议。对于创作者、主播、用户、商家、广告主等平台生态参与者在抖音应用生成式人工智能技术提出要求,对于违规使用AI技术的行为,一经发现,平台将严格处罚。
在AI技术不断发展的背景下,要更加注重保护个人隐私和声音权益,同时也要规范AI语音合成技术的应用范围和使用方式。对于相关的公司和个人来说,应当加强对于AI技术的了解和应用,遵循法律法规和行业标准,避免侵犯他人权益