首页 >  DAO的研究 >  正文
北京日报评论:警惕人工智能沦为造谣机器
发布日期:2023-05-10

近日,甘肃平凉市公安局崆峒分局网安大队侦破一起利用AI炮制虚假不实信息的案件。犯罪嫌疑人购买大量账号,全网搜索近年来热点新闻,再用ChatGPT加以编辑、规避平台查重功能,进而成功发布获利。目前,嫌疑人涉嫌寻衅滋事罪,已被采取刑事强制措施,相关案件正在进一步侦办之中。

说起来,这已不是ChatGPT第一次陷入假新闻风波了。问世伊始,便有人见识到其“一本正经胡说八道”的高超本领。解释高深物理理论,说得有鼻子有眼,结果附列论文一查均无出处;让推荐相关领域学者,瞬间就有人选,人物履历却是七拼八凑。出于其“天赋”的内容生成能力,ChatGPT似乎比从前的人工智能都更“聪明”,编出的内容往往形真实假、杂糅难辨。上述案件更直接展现出这种强大的造假能力。仅仅一篇“火车撞上修路工人致9人死亡”的虚假文章,就被套在了平凉、兰州、陇南、定西、庆阳等多地上,文章点击量达1.5万余次,造假成本之低与负面影响之大形成鲜明对比。

早有新闻可信度评估机构提出,“ChatGPT可能成为互联网有史以来最强大的传播虚假信息的工具。”也有一些实验表明,ChatGPT等个性化的实时聊天机器人在制造阴谋论方面甚至比人类更具优势,它能够修正糟糕的语法或错误的翻译,并变换表达方式,使阴谋论显得更具说服力和可信度。一方面是超强的“造假能力”,另一方面却是相对缺失的“审核门槛”——在算法逻辑中,事实核查能力天然缺失,来源不明的所谓“新闻”随时可能成为舆论爆点,大众在将信将疑中“且传且围观”。对这样的造假循环,如若不加治理限制,任由人工智能随性发展,必将严重威胁我们的信息生态。

科技是把双刃剑,人工智能也是如此。我们当然不必视之为洪水猛兽,关键是在积极拥抱新技术、新事物的同时,注意规避潜在的问题和风险。人工智能浪潮滚滚而来,相关法律与伦理框架不仅不能落后,反而更要尽量赶在前面。目前,世界各国皆在开展相关工作,以我国来说,今年1月《互联网信息服务深度合成管理规定》颁布实施;4月,国家网信办起草《生成式人工智能服务管理办法(征求意见稿)》。相信随着法律法规的逐渐完善,相关权责会更加明晰,操作规范会更加具体。与此同时,对待技术带来的新问题,也要多多寻求“技术解”。比如,对人工智能合成的文章进行识别并打上不可抹掉的标签。

ChatGPT在接受《时代》“专访”时曾回答:我还有很多局限,但人类应准备好应对AI。确实,当为ChatGPT打开的新世界而激动万分时,我们更应该有一丝理性的冷静。“凡事预则立”,构建人工智能应用的伦理和法律框架,让其与技术研发齐头并进,规定好人工智能缔造者的义务,充分提醒用户保持警觉。当方方面面的准备工作都力求扎实,我们方能更好应对这一“内容生产的新纪元”。

来源:北京日报

作者:杜梨

流程编辑:严圣淼

北京日报评论:警惕人工智能沦为造谣机器