首页 >  商业经济 >  正文
给人工智能立规矩划红线,多国迅速行动防范潜在风险
发布日期:2023-04-13

4月11日,中国政府发布了首份生成式AI产业管理办法《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),以促进生成式人工智能技术健康发展和规范应用。

《征求意见稿》在明确了对人工智能算法、框架等基础技术的自主创新、推广应用、国际合作的鼓励态度,在支持优先采用安全可信的软件、工具、计算和数据资源的同时,划定了相关范围,即办法管辖范围、办法管理权限、“提供者”的责任主体认定。此外,《征求意见稿》还将为未来生成式人工智能服务提供者在从业过程中的底线和规范提供法律依据。

给人工智能立规矩划红线,多国迅速行动防范潜在风险

图源:网络

随着人工智能在全球范围内引发关注及争议,国际各方纷纷着手加强对人工智能使用的管理,以保证科技创新与社会规范并进。

联合国教科文组织于3月底发表声明,呼吁各国政府尽快实施首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。协议于2021年11月由该组织通过,旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险,内容包括规范人工智能发展应遵循的原则,以及在原则指导下人工智能应用的领域。

声明表示,联合国教科文组织对科技创新引发的伦理问题表示关切,尤其是歧视、刻板印象、性别不平等问题,此外还有打击虚假信息、隐私权、个人数据保护等。行业自律显然不足以避免这些伦理危害,故《建议书》应确保人工智能的发展遵守法律,避免造成危害,并在危害发生时启动问责和补救机制。

声明指出,目前有40多个国家已与联合国教科文组织开展合作,依据《建议书》在宏观层面制定人工智能规范措施。

给人工智能立规矩划红线,多国迅速行动防范潜在风险

图源:网络

据报道,欧盟即将出台的《人工智能法案》采取了一种基于风险程度对人工智能系统进行分类管理的思路。但是,生成式人工智能产品对当前的风险分类方法提出了挑战。欧洲议会议员们对于哪些人工智能系统被归为“高风险”仍有争议。有知情者透露,欧洲立法者目前正就多方面限制“高风险”AI工具的新规则进行磋商。

从国家层面而言,意大利个人数据保护局(DPA)从3月31日起禁止使用ChatGPT,限制OpenAI公司处理意大利用户信息数据,同时对其隐私安全问题立案调查。此举引发多国监管机构和企业的关注,德国、法国、爱尔兰等国家已开始准备效仿意大利的做法,加强对生成式人工智能的监管。

德国联邦数据保护专员乌尔里希·凯尔伯也表示,出于对数据安全保护的考量,德国可能会效仿意大利,暂时禁用ChatGPT。他透露,禁用该软件的行为将属于德国联邦数据保护机构的职权范围。

美国东部时间3月28日,未来生命研究所(Future of Life Institute)发表一封公开信,呼吁所有AI实验室立即暂停研发比GPT-4能力更强大的AI系统,时长至少为6个月。截至4月9日,这封公开信已收到超过5万个签名。

法国、加拿大、韩国、日本等国家同样开始在人工智能领域采取规范和限制措施。

给人工智能立规矩划红线,多国迅速行动防范潜在风险

图源:网络

在2022年世界互联网大会乌镇峰会的人工智能与数字伦理论坛(点击回顾)上,与会中外嘉宾也曾围绕“人工智能的产业方向与伦理取向”展开讨论。对于人工智能带来的风险,与会嘉宾都谈到了治理的迫切性,“做负责任的人工智能”成为共识。专家建议,面对人工智能,既不能回避技术发展带来的各类安全风险和伦理挑战,也不能以邻为壑,人为设置“小高墙”,需构建合理规范的数字伦理规则,以增进人类福祉、透明互信,推动人工智能发展向上向善。

联合国教科文组织在声明中呼吁所有国家加入讨论人工智能伦理问题的行动中,并将于2023年12月,在联合国教科文组织的全球人工智能伦理问题论坛上发布相关进展报告。

“让我们享受一个漫长的AI之夏,而不是毫无准备陷入秋天。”未来生命研究所公开信的结尾这样写道。公开信中,研究者们担心,AI生成的谎言将充斥信息渠道,自动化替代所有工作,进化中的AI未来可能会超越乃至取代人类的思维,甚至让人类失去对文明的控制。

审核:张宁 策划:李政葳 撰文:穆子叶 编辑:李飞、穆子叶

参考丨网信中国、新华社、联合国官网、法治日报、中国新闻网、中国新闻周刊

给人工智能立规矩划红线,多国迅速行动防范潜在风险

更多信息欢迎关注光明网数字化频道

来源:世界互联网大会

给人工智能立规矩划红线,多国迅速行动防范潜在风险