1、 2 202023 3 年第年第 5 5 期(总第期(总第 8 8 期)期)国际智库及媒体对国际智库及媒体对 ChatGPTChatGPT 领域动向的评估领域动向的评估 欢迎关注欢迎关注 CISS 如需订阅电子版本,请访问 CISS 网站 010-62771388 http:/ 北京市海淀区清华大学明理楼428房间 国际智库及媒体对国际智库及媒体对 ChatGPTChatGPT 领域动向的评估领域动向的评估 编者按:编者按:为推进人工智能与国际安全领域的相关研究,清华大学战略与安全研究中心(CISS)组织研究团队定期跟踪最新国际研究动态,重点关注人工智能应用对国际安全带来的风险挑战,并针对人工
2、智能安全领域国际动态、智库报告、学术论文等资料进行分析。本文是CISS推出的人工智能与国际安全研究动态第8期,主要聚焦国际智库及媒体关于ChatGPT领域动向的评估。1.斯坦福大学:政府需在斯坦福大学:政府需在解决公众关切和促进负责任的人工解决公众关切和促进负责任的人工智能开发间取得平衡智能开发间取得平衡 斯坦福大学以人为本人工智能研究所(HAI)发布2023 年度人工智能指数报告,全面分析了人工智能的现状,考察了研究贡献、模型进步、人工智能滥用激增、私人投资模式、工作机会、行业应用及其他趋势等各个方面,认为政策制定者必须在解决公众关切和促进负责任人工智能开发之间取得平衡,促进经济增长和改善美
3、国人的生活质量。报告要点如下:工业界领先于学术界;人工智能继续发布最先进的结果,但许多基准的同比改进仍微不足道;达到基准饱 欢迎关注欢迎关注 CISS 如需订阅电子版本,请访问 CISS 网站 010-62771388 http:/ 北京市海淀区清华大学明理楼428房间 和的速度正在加快;人工智能既保护环境,也在损害环境;人工智能模型开始迅速加速科学进步;有关滥用人工智能的事件数量激增;几乎每个美国工业部门对人工智能相关专业技能的需求都在增加;过去十年中,人工智能领域的私人投资首次出现同比下降;虽然采用人工智能的公司比例趋于稳定,但它们实现了显著的降成本增收入;政策制定者对人工智能的兴趣正在上
4、升;中国公民是对人工智能产品和服务态度最积极的人群之一。https:/aiindex.stanford.edu/report/2.哈佛商学院哈佛商学院刊文分析人工智能监管刊文分析人工智能监管 5 月 2 日,哈佛商学院网站刊登美国 UPS 基金会商业物流名誉教授詹姆斯 赫斯克特的文章 人工智能应如何监管。文章认为,如果我们需要对人工智能的开发和使用进行监管,使用统一的全球标准和实践似乎不太可能。中国、欧盟和巴西等国已经立法规范本国的人工智能发展。作为人工智能发展最先进的国家之一,美国才刚刚开始出现要求某种形式监督的呼声。欧盟的人工智能法案代表了迄今为止最广泛的监管方法,并对监管提出了一系列复杂
5、挑战。例如,人工智能学习所依据的数据库集的范围界定,将决定其输出内容的准确性,以及是否存在偏见。那么,输出的某些用途是否应该得到限制,以及是否需要关于基于人工智能工作准确性的免责声明,目前这些问题都有待解决。欢迎关注欢迎关注 CISS 如需订阅电子版本,请访问 CISS 网站 010-62771388 http:/ 北京市海淀区清华大学明理楼428房间 https:/hbswk.hbs.edu/item/how-should-artificial-intelligence-be-regulated-if-at-all 3.哈佛大学贝尔弗中心:构建可信赖的人工智能增强透明度哈佛大学贝尔弗中心:构
6、建可信赖的人工智能增强透明度 美国哈佛大学贝尔弗中心刊登其伯克曼互联网与社会研究中心研究员内森桑德斯、IBM 安全中心特别顾问布鲁斯 施奈尔的文章 我们可以构建值得信赖的人工智能吗。文章认为,构建可信赖的人工智能需要增强透明度。人工智能无法完全被信任的原因在于人工智能应用主要是由大型科技公司创建和运营的,其目的主要是带来更多的利益和利润。有时我们被允许与聊天机器人互动,但它们从来都不是我们的。这是一种利益冲突,会破坏信任。构建可信赖的人工智能需要进行系统性变革。首先,可信赖的人工智能系统必须是用户可控的;其次,可信赖的人工智能系统应该透明地允许用户控制它使用的数据。第三,用户还应该了解人工智能