中国网财经3月6日讯(记者 畅帅帅)2022年11月,OpenAI发布ChatGPT引发全球AI热潮。2024年2月文生视频大模型Sora发布,再次引发新一轮热潮。算法技术全面步入应用阶段,但同时也引发了诸如算法歧视、算法黑箱、信息茧房、算法霸权等法律甚至伦理的一系列问题。
如何在促进发展的同时,更好完善人工智能算法治理体系,监管手段和能力如何提升,对我国相关产业的发展和国家治理能力现代化至关重要。对此,全国政协委员、金杜律师事务所高级合伙人张毅接受中国网财经采访时表示,建议尽快推进《人工智能法》的出台,构建人工智能算法治理体系,弥补监管体系空白。“可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率”。
以下为具体建议内容:
(一)尽快推进《人工智能法》的出台,构建人工智能算法治理体系,弥补监管体系空白。同时,可考虑通过针对性的法规予以补充规范。针对产业链上各主体,采取权责相统一原则,根据不同主体对于人工智能系统的控制力度来加诸相应的合规义务。将人工智能和算法技术按风险等级进行划分并采取不同监管措施,并设置事前、事中和事后全生命周期监管措施义务。
(二)强化和创新算法监管。强化由网信牵头,发展改革、数据、工信、公安等多部门共同参与的算法治理联席会议制度,完善“横向协同,纵向联动”算法治理格局。借助市场力量,外聘或者借调算法及人工智能领域的专家共同参与监管流程,补齐监管技术短板。引入“监管沙盒”制度,允许算法及人工智能企业在监管机构的监督下,于相对可控的环境内进行试验性的开发、测试和验证。此外,或可考虑探索将人工智能技术应用于人工智能监管,以提高监管效率。
(三)进一步保障用户权利。推进算法服务商以个人能够理解方式披露算法风险与可能产生的损害、算法运行步骤与决策结果间关系等运行规则,减少专业术语,便于用户理解和决策。要求算法服务商在个人用户决定选择拒绝使用算法服务的情况下,进一步优化用户便捷关闭算法服务的选项。
(四)拓展算法侵害行为维权路径与责任模式,增强用户维权力量。在算法侵权的诉讼中采取“过错推定”归责原则,实行 “举证责任倒置”。用户仅承担受到算法损害的责任,由算法服务商对算法和损害之间无因果关系,以及无过错承担举证责任。探索人工智能算法领域的民事公益诉讼制度。此外,不宜局限于要求具体损害结果的责任模式,可考虑综合考量训练数据、科技伦理等多维度规定算法侵害行为的违法责任,增强源头治理,形成责任闭环。
(责任编辑:王晨曦)