本报记者 曲忠芳 李正豪 北京报道
让逝世近12年的苹果联合创始人史蒂夫·乔布斯,与古希腊哲学家苏格拉底开启一场下午茶对话;让ChatGPT撰写一篇情节跌宕起伏的短篇小说;图文一键生成视频,并使用“甄嬛体”或“鲁迅体”来表达;让“AI孙燕姿”去翻唱周杰伦的歌曲《发如雪》;一键获取某个城市的经济景气指数报告……凭借生成式AI的爆发,这些景象越来越频繁地出现并日益渗透进人们日常工作生活当中,对于内容社区或内容平台来说,AIGC(通过AI生产内容)作为新的生产力工具抛出了一道新的考题——如何利用AIGC去降低内容创作门槛及创作成本,又如何甄别AIGC内容,防范虚假信息、同质或低质内容泛滥以及可能的版权纠纷等问题。
近日来,《中国经营报》记者对主流内容平台、内容创作者、应用运营方等进行了调研采访,了解到大部分主流平台已上线了不同形式的AI辅助工具,在各个应用商店里也出现了不少AIGC工具类应用,涵盖绘画、写作、换脸换装、聊天对话、海报设计等。需要指出的是,在部分平台已配置了对AIGC内容的标识功能,对于一些使用AI工具创作却未标明的内容,平台也建立了一定的处罚机制。
AIGC“入侵”内容生产流程
自媒体创业者李雷(化名),在近一个月里每天打开生成式AI工具,输入一些具体的文字指令,基本“调教”两三回合后,生成式AI工具就能自动生成一篇相对完整的文章,然后再让AI推荐10个不同风格的标题,配上3至5张图片就完成了一篇较为完整的图文,然后将图文发布在各个内容平台。据李雷介绍,通过连续的AI生成文章更新发布,尽管在部分平台的互动数据甚至内容分成有所增长,但是幅度及额度都比较微小,相比之前的纯原创文章几乎可以忽略不计。之所以这样,他复盘分析道,一方面是部分平台的推荐算法对此类文章有所识别和限制,互动数据无法提升,收益也自然就没有。比如,在知乎平台向创作者提供了一个“包含AI辅助创作”的标签,李雷并没有选择。而在图文发布后不久,账号就收到了一条系统处理通知,被告知因含有“可能包含AI创作内容”而“现已被标识外显标签”。另一方面,用AI生成图文后,依然需要创作者加入自己的思考与创作,进行优化调整,比如契合热门话题或热门行业领域,而并非简单的复制粘贴。
另一位自媒体创业者、一篇网络创始人赵宏民介绍,较早就关注并体验了国内外的许多AI产品,“和AI机器人能否有效交流,获得想要的答案,关键在于提供的指令、关键词是否精准”。在写文案时,一般会在纠错校对、拟写提纲、标题推荐等场景借助AI的力量。这些功能有的需要直接使用生成式AI工具,有的是平台配置的助手。比如,头条号的创作后台可以提供5至6个标题,推荐给不同的受众群体。再比如百家号有一个专门的“AI创作”栏,包含AI成片、AI笔记、AI作画等功能。
浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林告诉记者,使用AI工具作为辅助,的确对工作效率有所提升,但没有到替代的程度,有时候仅仅是一个灵感的提词器。
上海申伦律师事务所律师夏海龙向记者表示,曾体验试用过ChatGPT对国内典型案例纠纷进行法律分析,分析结论“出人意料的准确”,非常接近法院的裁判观点。他同时还使用过国内某家办公软件的AI测试版,“主要场景是文本识别与分析,无论是在识别速度,抑或是文档归纳总结的全面度、准确度上还有很大的改进空间,实用性尚不足以提升日常文书工作的效率”。
记者注意到,除了文本、图片等,各种各样的虚拟数字人在主流短视频平台更是已司空见惯,它们担当新闻播报员、卖货主播、歌手等不同的角色。最具代表性的“AI孙燕姿”凭借翻唱各式风格的歌曲“大火”,引发了业界对于侵权的讨论。
识别标识难不难,风险如何防范?
毋庸置疑,AIGC作为新的生产力工具,正在对内容生产流程带来不可逆的变革。那么,作为内容平台运营方,在识别AIGC内容并向用户作标识注明是否有难度?对于AIGC工具大量使用带来的风险该如何防范呢?
知乎相关负责人向本报记者表示,知乎本身积累了海量的图文、视频内容,长期以来,知乎在应用了大数据、NLP(自然语言处理)等技术去识别和理解这些内容,并把技术应用到搜索等场景中,帮助内容创作和消费。知乎在AI大模型开发之后,将尝试用大模型去识别AIGC的内容,并精细化地管理这类内容,当然在这一过程中也有很大的技术挑战。知乎是一个以人为本的社区,希望通过新技术的应用进一步提升内容创作和运营效率。但无论采用何种技术,知乎倡导的认真、专业、友善的社区价值观和“获得感”的内容标准没有变化。对于AI辅助有可能带来的虚假信息、低质信息等风险,知乎会严格按照社区规则去进行治理。
“AI 生成内容正处在快速发展变化阶段,业界包括知乎在内都在研究相应的应对能力,其中就有内容识别能力。目前,知乎要求创作者发布 AI 辅助创作内容时,需要在内容上进行显性声明,并为所发布的内容负责。对于全文照搬AI生成内容作为自己的创作的行为,知乎是不鼓励的。”该知乎负责人如是表示。
就在今年5月9日,抖音发布了《关于人工智能生成内容的平台规范暨行业倡议》,提出11条平台规范与行业倡议。除了要求发布者对人工智能生成内容进行显著标识,加上统一的官方“水印”之外,抖音还强化了对虚拟人的约束,要求虚拟人需要在平台进行注册,领取专属“身份证”,同时,虚拟人技术使用者也需要实名认证。
不难看到,通过鉴定识别并标识AI生成内容,保障用户的知情权越来越成为内容平台现阶段的主要应对举措。中国政策科学研究会特邀研究员、太琨律创始合伙人朱界平律师表示,根据《民法典》第一千零一十九条规定,任何组织或者个人不得以丑化、污损或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但法律另有规定的除外。未经肖像权人同意,肖像作品权利人不得以发表、复制、发行、出租、展览等方式使用或者公开肖像权人的肖像。内容社区或平台在生产人像时应当遵守法律的规定,不得有侵犯肖像权的行为;内容社区或平台在发布和传播内容时,要遵守《著作权法》的规定,不得有侵害相关作品的著作权。这两个方面应该是该领域可能面临的重要法律风险。
夏海龙也指出,AI创作面临的最大法律风险就是内容违规或侵权。根据目前国内AI的监管思路以及平台规则约定,无论用户通过网络账号发布的内容是否使用了AI创作功能,都需要对这些内容传播的法律后果承担全部责任,AI不能成为用户免责的借口。而对平台来说,提供AI创作功能要严格履行内容、算法等各项监管责任,并对用户和浏览者充分提示、告知AI生产内容。
在盘和林看来,虚假信息、低质内容和版权风险的问题可以采取一种方式来解决,那就是发布者有责任将合成的信息和发布内容绑定在一起,比如图片和视频需要加水印,以证明是某个AI生成了这个内容。当然,靠自觉还不足够,未来通过算法可以发现图片、视频的拼接痕迹,可以对明知是生成内容、还未经标识发布、误导用户的行为进行处罚。信息时代很多信息安全执法的关键是安全责任可追溯,能够追溯到责任人,就可以很好地监督整个市场的应用生态。