1、人工智能伦理风险与治理研究中国电子信息产业发展研究院政策法规研究所(工业和信息化法律服务中心)二O二五年四月1二问题聚焦随着人工智能技术向经济社会各行业各领域加速渗透,其引发的伦理争议已成为全球关注焦点,美欧等主要经济体均根据自身情况,开展了一系列伦理治理实践。目前,我国人工智能伦理治理的基本理念、规则体系、治理模式和国际主张初步形成。在新形势新要求下,亟待优化完善具有中国特色的人工智能伦理风险治理路径。本研究重点回答:人工智能伦理风险是什么、治理现状如何、未来如何治理等问题。治理现状如何?是什么?未来如何治理?人工智能伦理风险的内涵特征是什么?人工智能带来了哪些伦理风险?这些风险如何进行类型
2、划分?国际组织、欧盟、美国等开展了哪些伦理治理实践,探索了哪些模式?我国已探索开展了什么样的伦理治理实践?面临哪些新形势新要求?应如何完善现有治理路径?拟回答问题12二思路框架治理实践探索治理对象分析风险分类面临形势要求优化路径建议中央要求亟待落实实践问题亟待解决企业诉求亟待回应国际组织内涵特征分类体系生成机制典型场景/案例欧盟美国国外我国治理理念治理规则2治理模式国际主张持续完善法律法规体系强化多元协同治理机制深化国际治理合作统筹伦理治理与产业发展3人工智能五大伦理风险3侵权性风险歧视性风险社会性风险责任性风险失控性风险对个人权益的直接侵犯对特定群体产生不公正的价值判断或决策结果误用、滥用技
3、术或技术局限,而对公共社会秩序造成负面影响造成负面影响后的责任界定难题人工智能行为及影响超出人类预设、理解和可控范围侵犯个人信息权侵害个人生命健康权侵犯知识产权对特定群体产生歧视性决策结果生成内容出现歧视性表达生成不良信息助长错误价值观技术漏洞导致生成虚假、错误信息人为滥用技术导致财产损失、精神损害“主体”身份认同危机责任界定困难利益与责任分配不公人类主体能力退化和自主意识弱化人类丧失对人工智能的控制能力海量数据需求与过度收集算法“黑箱”与透明度缺失技术漏洞与安全缺陷“合理适用”“知情同意”机制难执行缺乏有效的版权审查和授权机制训练数据包含隐性偏见内容模型内部运作机制难以理解和解释内容语料标准
4、模糊生成内容的审核、监测和控制机制不够完善训练数据含有不良内容模型存在技术漏洞被外部输入干扰信息平台内容审核与处理机制不完善缺乏对失业等社会性风险的有效应对方案技术和模型的决策过程难以被人类理解和预测人工智能应用过程中各方责任关系复杂数据资本垄断化、算法权力黑箱化人类产生“认知卸载”“算法迷信”自主学习机制等导致人类无法预测其行为伦理审查形式化,如缺乏对“主体性”危机的关注人工智能伦理风险是指:在人工智能技术的开发、部署和应用过程中,因技术特性、使用方式或管理缺陷等而引发的侵犯个人权益、冲击社会秩序、违背人类价值观的伦理风险,具体可从五个维度来分析。具体含义主要类型生成机制 技术+规制4国际组
5、织伦理治理现状总体原则联合国为人类治理人工智能(2024.09)、联合国教科文组织人工智能伦理问题建议书(2021.11)、二十国集团人工智能原则(2019.06)等。国际电信联盟(ITU)已发布或正在制定超过200项与人工智能相关的规则标准。其中,ITU在2024年世界电信标准化全会上形成的第COM4/AI号决议,是ITU首份人工智能新决议,致力于将人工智能应用于电信/ICT。4人工智能系列峰会2023年英国峰会,28个国家和欧盟签署布莱切利宣言;2024年首尔峰会,10个国家和欧盟签署首尔声明;2025年巴黎行动峰会,61个国家签署巴黎人工智能宣言,促使越来越多的国家和地区就人工智能全球治
6、理问题达成共识。人工智能造福人类全球峰会2024年5月,国际电信联盟(ITU)与40个联合国伙伴机构合作达成了推动人工智能负责任应用、制定相关标准、讨论全球人工智能治理框架等共识。全球工业和制造业人工智能联盟2023年7月,联合国工业发展组织(UNIDO)在第六届世界人工智能大会上宣布成立,聚焦于制定并推广工业和制造业领域的人工智能伦理准则,推动形成更广泛的国际共识。具体行业通信领域:国际电信联盟(ITU)人工智能治理日从原则到落实(2024.07)专题报告。金融领域:国际清算银行(BIS)中央银行使用人工智能(2024.01)生成式人工智能与中央银行网络安全(2024.05)。卫生领域:世界