今天是“愚人节”,在流行文化中这通常是个颇为欢乐的日子,但这个“愚人节”,可能有不少人在思考一个有点心惊的问题:人工智能会把我们变成“愚人”吗?
这不是耸人听闻,就在刚刚过去的3月,人工智能领域发生了一系列重大事件,就连联合国都被惊动了。
先是近来大热的人工智能ChatGPT的更高版本GPT-4发布,被认为是人工智能的“破茧成蝶”时刻;数日后1000多名业界专家签署公开信,要求暂停研发更强大的人工智能系统;3月30日,联合国教科文组织发表声明,呼吁各国尽快实施人工智能伦理标准。
虽然,人工智能目前不会直接把人变成愚人,但如果人类在重大问题上应对不当、出现重大失误,则会证明自己原本就是“愚人”。
人工智能“破茧成蝶”
先来看看人工智能的历史。自从1956年一群科学家在美国达特茅斯会议上提出“人工智能”这个名词以来,其发展经历了若干高潮和低谷。
最近的一波高潮源于神经网络、深度学习等人工智能技术的发展,2016年围棋人工智能AlphaGo战胜人类世界冠军李世石,2017年又战胜当时世界排名第一的柯洁,就是这个领域广为人知的重要成就。
从去年底到今年初,人工智能ChatGPT的崛起又一次震惊世界。
它能以很接近人的方式与人对话,还能通过一些专业考试,比如谷歌编码L3级(入门级)工程师面试,据说该职位年薪18.3万美元,这个薪资水平估计超过了大部分看到这里的读者吧。
当地时间3月14日,开发ChatGPT的美国OpenAI公司发布了更进一步的GPT-4。它具备多模态能力,在文字输入外还能接受图片输入。它在诸多专业领域的能力也更强,有人用它模拟参加了美国大学先修课程考试等多项考试,在英语、历史、数学、生物等方面都取得了不错的成绩。在模拟美国律师考试中,作为ChatGPT基础的GPT-3.5得分在后10%,而GPT-4的得分在前10%。
下图是OpenAI公司官方发布的GPT-4各项考试表现。此图发布后,网友讨论的一个问题是,还有没有哪些或哪位人类个体能够在如此广泛的考试中取得这样的成绩。
人工智能领域著名专家、图灵奖得主杰弗里·欣顿在社交媒体上发表评论说,毛毛虫要吸收养分才能变成蝴蝶,在理解文字等方面吸收了大量信息后,“GPT-4就是人类的蝴蝶”。
“愚人”风险不可忽视
虽然GPT-4还没有达到科幻故事中通用人工智能的程度,但业界普遍认为它把人工智能带到了可能超过人类的关键点上。
“我们应该开发可能最终数量胜出、智力超过、淘汰并取代我们的非人类意识吗?”这是美国生命未来研究所网站3月下旬发布的一封公开信中发出的灵魂之问。
公开信列举了强大的人工智能可能带来的种种问题,比如可让各种信息渠道中充斥错误信息、替代多种人类工作等,更为可怕的是各家实验室正在竞相研发连发明者都不能理解、预测或可靠控制的人工智能。
OpenAI公司今年2月曾在一份声明中说,在某个时候,在开始训练未来的人工智能系统之前需要先进行独立的评估。生命未来研究所网站的公开信说:“我们同意。这个时间点就是现在。“
公开信呼吁所有相关机构将研发比GPT-4更强大的人工智能系统的工作暂停至少6个月,以商讨相关伦理规范。目前已有著名科技企业家马斯克、苹果公司联合创始人沃兹尼亚克等上千名业界人士签名。以下是若干签名大佬的截图:
这事甚至惊动了联合国。3月30日,联合国教科文组织发表声明,表示注意到业界关于暂停研发强大人工智能的呼声,并呼吁各国政府根据2021年就已通过的《人工智能伦理问题建议书》尽快实施具体标准。
联合国教科文组织总干事阿祖莱在声明中说:“世界需要更强有力的人工智能伦理规则,这是我们这个时代的挑战。”
人类关于这种挑战的想象早已体现在各种科幻作品中,无论是中国科幻片《流浪地球》中对智能量子计算机MOSS的描绘,还是美国科幻片《2001太空漫游》中对超级电脑HAL9000的担心,都显示出人工智能有可能在两个层次上让我们变成“愚人”。首先是在某些具体工作中超越最聪明的人类,围棋领域AlphaGo等案例已让我们逐渐习惯这一点;然后就是大范围接管各种工作,以至于最终可以影响整个人类的命运。
最为形象的一个科幻场景,可能是动画片《机器人总动员》中,在飞船中生存的人类越来越胖,甚至难以行走,生活全靠机器人护理。在历代飞船船长与身后代表人工智能的方向盘合影中,方向盘越来越大,甚至最终压过了船长的控制权。
全球共建“机器伦理”
人类需要因为人工智能的狂飙猛进陷入恐慌吗?答案是否。因为人类仍然牢牢控制着人工智能,不可能发生某些科幻大片中的失控场面。
但是,从现在开始,必须避免“或者万劫不复、或者天下太平”的极性思维。人工智能伦理治理要面对的,是处于两个极端之间的各种实际可能发生的情况,包括对就业、教育的影响。为此,需要相关各方积极行动,联合攻关,就生成式人工智能可能带来的主要机遇、风险和治理方案达成共识。
确实,在当前全球科技界竞相研发人工智能的形势下,让所有人都暂停6个月研发不太现实,网上有人称之为“最不可能的停火”。在这个时候,堵不如疏,联合国教科文组织提出制定详细的人工智能伦理规范,有助于让人工智能走在我们想要的轨道上。
早在2021年11月的联合国教科文组织第41届大会上,会员国一致通过了《人工智能伦理问题建议书》。根据该文件,与人工智能相关的根本性伦理关切包括多个方面,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟。
更为宏观地说,建议书认为人工智能的发展应该“以人的尊严、福祉和防止损害为导向”。今年12月,联合国教科文组织全球人工智能伦理问题论坛将在斯洛文尼亚举行,届时将发布相关进展报告。
著名科幻作家阿西莫夫曾经提出“机器人三定律”,也许未来在每一个人工智能的底层,都会首先写下这些代码:
“机器人不得伤害人类,或坐视人类受到伤害;
除非违背第一定律,否则机器人必须服从人类命令;
除非违背第一或第二定律,否则机器人必须保护自己。”
来源:伍之管见微信公众号