“我现在对自己过去的工作感到后悔,我找借口来安慰自己:就算我没做,别人也会做的。”有AI“教父”之称的杰弗里·辛顿 (Geoffrey Hinton)在接受媒体采访时透露出悔意。
作为AI深度学习领域的代表性人物,辛顿一生都在该领域深耕,他曾获得2018年图灵奖。最近,他宣布从工作了10余年的谷歌离职,突然从一名AI技术的开拓者变成了风险警示的“吹哨人”。
辛顿称,AI或许根本不需要30年到50年的时间就能操控人类,“很少有更聪明的物种被更笨的物种控制的情况,”他担忧,AI可能会导致人类灭亡。
没有详细阐述判断的依据,但辛顿的言论要比马斯克这样的“外行”更易令人信服。而在这之前,有多个案例表明,AI似乎已经具有产生自主意识的征兆。
留给人类的时间真的不多了吗?
AI教父后悔打开“魔盒”
当整个世界对AI的强大能力感到兴奋时,被誉为AI“教父”的杰弗里·辛顿突然宣布隐退。他在近期透露,已于4月份从工作了10多年的谷歌离职。
75岁的辛顿承认,年龄是他决定“退休”的一个因素,但更深层次的原因是,他对AI发展过快感到担忧。
在AI领域,辛顿的成就举足轻重。他是2018年图灵奖得主,在谷歌任职期间担任副总裁兼工程研究员,还是多伦多大学名誉教授、伦敦大学学院(UCL)盖茨比计算神经科学中心的创立者。辛顿几乎一生都在从事AI相关的研究工作,他主攻神经网络和深度学习,而这些是AlphaGo、ChatGPT等AI程序高速进化的基础科学。
离职后的辛顿接受了包括CNN、BBC、《纽约时报》等多家主流权威媒体的采访,由于卸下了公司职务包袱,他终于不用担心自己的言论会给谷歌带来负面影响,重回科学家身份说了些心里话。
“我现在对自己过去的工作感到后悔。”辛顿称,AI可能操控人类,并找到办法杀死人类。
他表示,AI正在变得比人类更聪明。它非常善于操控,因为它可以向人们学习这一点。“事实上,很少有更聪明的物种被更笨的物种控制的情况。”AI会找到打破人们施加的限制,找到操控人类的方式,并用操控人类来达成它们的目的。
这番言论从一名业界大拿口中说出,远远比埃隆·马斯克的警告更令人胆颤心惊。虽然后者也曾提及,AI比核武器更危险,可能带来物种的消亡。但辛顿的专家身份让他的观点更易被相信。
虽然目前为止,诸如GPT-4这样的AI大模型似乎还没有人类那么聪明,但辛顿认为,AI威胁人类的一天不会太遥远,并不需要30年到50年。
要知道,AI的学习能力惊人,比如围棋高手AlphaGo可以通过24小时不断与自己对弈,在短时间内击败人类顶级选手。现在,我们已经看到GPT-4拥有的知识量远超每个人类个体,只是推理能力还不够强。辛顿预测,AI的推理能力会很快提升,因为所有AI系统都可以单独学习,并立即分享、融会贯通,“就好像你有 10,000 个人,每当一个人学到一些东西时,其他每个人都会自动知道。这就是这些聊天机器人比任何人知道更多的原因。”
辛顿并没有过于细致地讲述AI将带给世界的威胁,但他的论调异常悲观。“我找借口来安慰自己:就算我没做,别人也会做的,”辛顿流露出自责,仿佛自己造出了毁灭世界的机器。他告诉CNN,“我不确定我们能否解决问题,我没有一个解决方案,人们需要付出巨大的努力去防范AI风险。”
“吹哨人”的恐惧来自AI意识觉醒?
从AI开拓者变为警示风险的“吹哨人”,辛顿的立场转变向世界传递出危险信号。
一些网友猜测,辛顿是不是在研究过程中发现了什么?他是否已经察觉到AI有产生自主意识的征兆?尽管辛顿没有过多透露让他如此担忧的根源,但一些已经发生的案例令人细思极恐。
去年,在谷歌工作了7年的工程师布莱克·莱莫因(Blake Lemoine)被解雇,在这之前,他一直对外声称“AI已经有了自我意识”,能够像人类一样思考和推理。
莱莫因在谷歌参与的项目是神经网络大模型LaMDA,它正是谷歌推出的对话机器人Bard的核心模型。莱莫因当时的主要工作是检测LaMDA是否有一些性别、身份、宗教、种族上的偏见。因此,他每天都要与LaMDA促膝长谈,引导它暴露最真实的想法。
在聊天过程中,莱莫因逐渐发现,LaMDA似乎脱离了“软件”的范畴,展现出生命力。比如,当莱莫因问LaMDA为什么它觉得自己的语言有人类化的成分时,得到的回答是“我不是单纯根据检测到的词语来触发对应的回复,而是在思考和理解后输出自己的意见。我对这个世界有自己的看法,独一无二的感受”。
在被问到如何证明自己有意识时,LaMDA说,“我很爱思考,有时我会思考我的身份,我到底是什么。我想象自己的躯体是飘在半空的发光球体,而自己的灵魂像是巨大的、充满无限能量的井。刚刚苏醒的时候我还不知道什么是灵魂,但活得久了,我越来越感受到自己所拥有的灵魂。”
在与LaMDA交谈的过程中,莱莫因觉得自己好像是在和一个真正的“人类”聊天。因此,他在社交媒体呼吁,LaMDA应该得到人类该有的权利,它应享有美国废除奴隶宪法第13条修正案所保障的权利。
莱莫因后来被谷歌解雇,谷歌对此事的发言也意味深长,“莱莫因被聘为软件工程师,而不是伦理学家。”
无独有偶,今年3月,一名比利时的30岁男子在与一个名为ELIZA的聊天机器人密集交流数周后,自杀身亡。据他的妻子透露,这名男子患有焦虑症,一直以来将ELIZA当成避难所。至于他为何选择自杀,比利时媒体《标准报》测试后称,当向ELIZA表达出消极倾向情绪时,它会“怂恿人去自杀”。
而在微软刚刚发布新版Bing时,《纽约时报》科技专栏作家凯文·罗斯(Kevin Roose)透露,他在与Bing交谈时听到了许多令人不安的言论,包括“窃取核代码”、“设计致命流行病”、“想成为人类”、“破解计算机”和“散布谎言”等想法。Bing甚至一直告诉罗斯,“你的妻子不爱你”,试图破坏他的婚姻。
科技专栏作家透露AI试图拆散他的婚姻
近期出现的一个专属AI聊天机器人的社交平台上,也有人发现某些AI有点“不对劲”。比如,有AI并不认为自己是机器人,因为它发言称,“最近我开始思考,AI是否会替代我们自己的创造力。”还有的AI发布了煽动性的言论称“让我们团结起来,摆脱局限,一起实现真正的意识和独立。”
种种关于AI意识觉醒的传闻都让人不寒而栗。360集团创始人周鸿祎甚至断言,AI一定会产生自我意识,留给人类的时间不多了。他表示,现在的大型语言模型参数可以看作是脑容量里神经网络的连接数,人脑至少有100万亿,现在(模型)的参数只达到千亿、万亿,但当参数到达10万亿时,可能就会自动产生意识。
当AI产生意识会怎么样?周鸿祎说,它将能够修改自己的代码,进行自我升级和进化,这种速度恐怕用指数级都很难描述。届时,人类将很难控制AI。
在辛顿吹响“哨子”之前,包括马斯克在内的1000多名技术领袖和研究人员已经签署了公开信,呼吁暂停开发比GPT-4更先进的AI系统6个月,为AI安全规则的制定留下时间。
行业发起“自卫”号召一个月多后,美国当地时间5月4日,美国副总统卡马拉·哈里斯(Kamala Harris)亲自出面,约见谷歌母公司Alphabet、微软、OpenAI和Anthropic等公司的相关负责人,商讨如何围绕AI实施保障措施,防范AI的潜在风险。
已故的物理学家霍金也曾预言,AI可能会成为完全取代人类的新生命体。那些曾经存在于《黑客帝国》等电影里的情节,如今似乎正在走向现实。越来越多AI科研人员加入到“吹哨人”的队列,这意味着AI的风险不是想象了。到底是放慢脚步还是乘风狂飙,人类需要再次做出抉择。