AI声音滥用现象亟待有效规范
随着算法不断进步,在高性能设备和高精度模型的助力下,AI生成的声音已从过去的“一听就假”发展到如今的“真假难辨”。不少有声读物采用AI配音,读者甚至能选择模仿某个特定人的声音,这既降低了成本,也增添了趣味性。与此同时,AI声音滥用现象也时有发生。(2月24日《工人日报》)
如今在网络平台上,AI声音随处可见,而有的的确能够以假乱真。并且,据报道,大量软件具备相关功能,一些APP的下载量超千万次。有的只需简单念出一段文字或输入音频片段,这些APP十几秒即可完成声音的合成。还有一些商家在短视频平台带货时,通过AI模仿知名人士的声音编造内容。
AI声音滥用背后的风险不容小觑。可以说,个人的声纹信息作为一种生物识别特征,具有高度的可识别性,其独特性、唯一性及稳定性,使其成为将信息与特定自然人相关联的关键要素。同时,根据《个人信息保护法》的规定,声纹信息被归类为敏感个人信息,受到严格保护。所以说,擅自将他人声音AI化是违法行为。
AI声音滥用现象亟待有效规范。毋庸讳言,AI生成声音的过程中,涉及声音样本的采集、使用、算法的研发和应用等多个环节,每个环节都可能涉及不同主体的权益。保障各方合法权益,法律的完善是基础性工作。于此,进一步完善法律体系,细化AI克隆技术的法律条款,明确侵权行为的定义和责任,需要相关部门重视起来。
平台也应当切实负起责任。一方面是监管责任,如建立健全对AI声音的审核和侵权举报机制,及时发现和拦截侵权、虚假、违法等不良内容;另一方面是预警责任,平台有必要加强相关警示,增强公众对AI声音滥用危害性的认识。平台或企业唯有坚持技术边界,依法合规使用,才能避免AI技术被滥用。
《民法典》第一千零二十三条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。所以,对AI声音涉嫌违法的同样须依法惩治。相关部门应继续加大对利用AI技术进行诈骗等违法犯罪行为的打击力度,形成更加完善的常态化治理机制,绝不能任由AI肆意“偷声”。(杨玉龙)
您可能感兴趣的文章
- 03-24 构建人工智能安全治理新格局,开创生成合成内
- 03-24 四部门联合发布《人工智能生成合成内容标识办
- 03-24 阿里1688平台全面取消“仅退款”
- 03-24 抖音生活服务下调31类目商家保证金
- 03-23 2025两会热议“网安提案”:为数字化发展保驾护
- 03-23 网络交友需警惕,风趣主播诈骗案频发引反思
- 03-23 联通数科:“墨攻”安全运营服务平台全面升级
- 03-23 “联通文创聚智绘新篇”沙龙启幕
- 03-23 全国人大代表、四川长虹电子董事长柳江:加快
- 03-22 数智文旅行稳致远离不开法治保障


阅读排行
推荐教程
- 07-25聚焦“水土湖草冰” 2023年江源综合科考启动
- 12-30创胜系列后台用户编辑报错
- 12-15秋冬季五大高发眼病,不得不防
- 07-25加快实现高水平科技自立自强 上海发布高质量孵化器培育实施方案
- 07-25【光明时评】推进高校科研院所薪酬制度改革正当其时
- 07-25我国载人登月火箭主发动机试车连续成功
- 01-18 “星火·链网”超级节点(济南)上线
- 01-18 一组AI海报,盘点2024生态环境十大热词
- 01-01创胜系列数据库添加子游戏脚本
- 01-01网狐系列净销量和日销量统计脚本