“技术发展是不可阻挡的,技术应用也往往超前于风险应对手段的产生。”北京市盈科(海淀区)律师事务所网络犯罪辩护与刑事合规部主任刘洋认为,深度合成技术对影视、娱乐、、科研、医疗等领域的发展有促进作用,让“AI换脸”等应用屡陷争议的原因,既有开发者的利益需求,也有技术规制的天然滞后性。
技术对人类生活、工作影响深远,但“技术中立”并不能成为规避责任和义务的理由。今年1月,国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》正式实施,为深度合成服务划定了“底线”和“红线”,强调不得利用深度合成服务从事法律、行政法规禁止的活动,要求深度合成服务提供者落实信息安全主体责任。
随着技术迭代不断加速,与之对应的,对人工智能技术的法律规制和政策引导也在不断完善。《生成式服务管理办法(征求意见稿)》共21条,对生成式产业给出较为详尽的规定,其中包括定义、准入资格、责任义务和处罚措施等。
刘洋分析认为,《征求意见稿》在产品申报安全评估、数据来源合法性要求、对用户输入信息和记录承担保护义务等方面的规定,具有更强的现实意义。“尤其在个人数据和信息的保护方面特别重视,要求提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务,不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。”
要遏制“AI换脸”等人工智能领域的深度合成技术应用乱象,还得政府监管部门、平台、网民多方形成合力,多管齐下。
网民需要自律、守法。“个人使用换脸工具,需要用在合理合法的用途和目的上,需要对法律常识和公序良俗有底线意识。”刘洋说。企业则需要在技术研究和应用中规范伦理要求,履行主体责任。刘洋说,网络平台如果明知视频违法违规而不采取措施,继续对他人和社会造成损害,平台也应承担相应的连带责任。
此外,针对技术研究与应用的法律规制和执行效能还需进一步完善。“在制度设计层面,我国未形成统一的对人工智能技术的系统性立法,现有的法律规范在落地执行层面也存在挑战。”刘洋说,立法要及时关注技术发展过程中出现的新现象、新问题,监管部门则要重点关注和监测,对可能造成恶劣社会影响、危害国家安全和社会公共利益的“AI换脸”视频严格监管,对各类违法侵权行为重拳出击。