财联社3月29日讯(编辑 赵昊)综合多家媒体报道,在人工智能(AI)技术越来越广泛地被用于消费产品的同时,科技巨头却一直在削减AI伦理团队的人员,导致外界对这项新技术的安全性感到担忧。
AI伦理团队是专门评估部署人工智能相关伦理问题的团队,主要职责是为使用人工智能的消费产品提供安全建议。据了解,削减该团队的公司包括微软、Meta、谷歌、亚马逊、推特等,这意味着FAANG中只有苹果公司不在这一“撤防”行列。
去年下半年以来,为应对经济形势不加、成本上升等问题,科技巨头先后宣布缩减支出,裁员人数动辄上万。一般来说,各公司的AI伦理团队只有数十人,因此团队即使被大幅缩减,通常也不会特别引起注意。
不过,由于聊天机器人ChatGPT的横空出世,人们对这项技术的警惕性高了起来,有专家警告已经存在滥用行为。日内,未来生命研究所(Future of Life Institute)呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。
多家科技巨头裁减AI伦理团队
同时,公司裁减AI伦理安全团队的行为也逐渐被放到放大镜下。谷歌旗下的AI初创公司DeepMind的前伦理和政策研究员Andrew Strait告诉媒体,“当下可以说是最需要这些团队的时候,但公司还是放走了那么多AI安全人员,令人震惊。”
两周前,ChatGPT开发商OpenAI的“金主”——微软公司被曝在今年1月解散了其整个“AI道德与社会团队”,同时公司却在引领潮流,加速将ChatGPT的同源技术嵌入到更多的产品中。
微软方面解释称,削减的职位不到10个,其在责任工作方面的整体投资始终在增加。并且公司仍然在负责任AI办公室(ORA)团队中保留数百人,专注于制定规则来管理公司的AI计划。
虽然埃隆·马斯克是“带头抵制GPT5”的科技圈大佬之一,但消息显示,他在控制推特后也削减了这家社交媒体公司的AI道德团队。
另据一位消息人士透露,亚马逊也在上周“官宣再裁员9000人”时,裁撤了旗下流媒体平台Twitch的AI道德团队。
曾爆料聊天机器人“活了”谷歌吹哨人被裁
谷歌方面,有接近公司的人士透露,一些负责道德AI监督工作的员工也在1.2万人的大裁员中被裁掉了。值得一提的是,在ChatGPT公布之前,谷歌公司就已经发生过一件“耸人听闻”的事。
去年4月,时任谷歌AI伦理研究员的Blake Lemoine在交给高管的一篇报告中写道:在经过一段时间的测试后,他认为公司研发的AI聊天机器人“LaMDA”已经觉醒了意识,具有与人类孩子相当的感知和表达思想和感受的能力。
当时,谷歌高管调查了他的说法并予以驳回。其后,Lemoine还联系了美国众议院司法委员会的职员,要让LaMDA上听证席,控诉谷歌不符合道德要求。2022年7月,谷歌发言人证实Lemoine已被解雇。
值得一提的是,当时仍较为低调的OpenAI首席科学家Ilya Sutskever也发推文表示大型神经网络“可能有点意识了”,一度也闹的沸沸扬扬。
“AI系统可能对社会和人类构成深远的风险”
前Facebook人工智能伦理研究员Josh Simons告诉媒体,人工智能伦理团队是科技巨头唯一的、关键的内部堡垒,这些堡垒被拆除将导致算法受到广告需求的摆布,可能会影响孩子、弱势群体乃至整个社会。
未来生命研究所也在公开信中表示,“大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认。”
公开信指出,“最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。”
伦敦国王学院人工智能研究所所长Michael Luck表示,“我们无法完全预测这些新技术将要发生的所有事情,我们要对它们给予一定的关注,这很关键。”
另外,聊天机器人的核心技术“大语言模型”已经被证明会作出虚假的陈述,可能被用于操纵选举和传播虚假信息等目的。
OpenAI公司首席执行官山姆·阿尔特曼也曾表示,“我最想提醒人们的是,AI模型会自信地陈述一些虚构的事物,就好像它们是真实的事情一样。”