为何AIGC假新闻畅行无阻?

为何AIGC假新闻畅行无阻?

最佳答案 匿名用户编辑于2024/11/19 14:44

从 AI 与新闻业的融合历史进行观察,AIGC 迈入新闻自动生产领域意味着其从新闻生产工具, 摇身一变成为新闻生产的主体。

1.源头上的挑战:AIGC信息生成机制的桎梏

首先是信息生成机制层面,这是源头上的问题。AIGC带来的假新闻问题,与其本身所使用的语料库和缺乏真实核查能力的信息生产机制密不可分。

AIGC的核心是基于数据预训练的大规模语言模型(LLM),其可以模拟人类生物学和神经学识别数据的模式,为用户提供答案。而基于概率生成和预训练材料的模式有两方面局限性:

第一,基于概率生成的模式明显缺陷在于重复常见的错误,即当一个论述在数据集中出现的频率越高,被作为答案生成的概率也就越高。然而,在数据集中频繁出现并不等同于该论述具备真实性与正确性,一旦一个高频虚假信息被当作正确答案反复输出,“谎言重复千遍便成为真理”的现象就极易出现。

第二,受限于预训练材料,模型无法吸收新的反事实证据以测试材料的真实性;此外,预训练材料中的信息是否真实可信、信息囊括范围的大小也对 AIGC 生成信息的真实性产生了影响。

对 AIGC 进行训练的语料库,肩负着保障 AIGC 输出信息准确性的重要责任,语料库有限、语料库的时效性滞后,均是 AIGC信息失实的原因。用于 AIGC 训练的语料库往往包含了大量在互联网上抓取的文本,这些文本鱼龙混杂且真实性存疑,无疑给缺乏信息辨别能力的生成式 Al 带来极大的迷惑。更严重的是,其中的虚假信息可能会经 AIGC包装、输出后回流至网络平台并再度回到 AIGC 的训练语料库中,形成虚假信息的循环,进一步循环污染信息环境的真实性。

ChatGPT 在接受《时代》“采访”时,承认自身在信息质量上的不足:“我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。" 在这一方面,技术仍有很长的路要走。

2.更智能却更狡猾:强包装能力助推假新闻流传

AIGC“一本正经地胡说八道”已经成为笑谈,然而,当人们还在打趣人工智能实则为“人工智障”,这一技术已经悄然成长,从“一本正经地胡说八道”摇身一变为“令人信服地胡说八道”。

NewsGuard 在一项针对 GPT-3.5和 GPT-4的测试中发现,而对 100 条同样的虚假信息生成指令,GPT-3.5 拒绝了其中 20条虚假信息的生成,而 GPT-4却生成了全部 100 条虚假指令令;同时,GPT-3.5生成的信息中包含着51条免责声明,GPT-4却仅包含了23条。这意味着作为 GPT-3.5 的升级版,GPT-4并没有在识别并拒绝生成虚假信息上有所进步,反而比GPT3.5 具备了更为彻底、更具说服力的虚假信息生成能力。

AIGC强大的传播能力不仅在于生成信息的说服力上,同样存在于生成信息的速度与规模上。传统新闻时代,新闻工作者需要具备规范的新闻写作、新闻摄影与新闻视频制作等专业能力。而人工产出一份达到刊发标准的新闻作品,往往需要经过资料准备、现场调研、信息核查、后期写作制作等一系列环节,从而才能保障作品的真实性和可读性等标准。花费几个月甚至更长时间深入现场进行深度调查报道、挑灯夜战赶稿润色以期为读者呈现最好效果,对于新闻工作者来说是家常便饭。然而,不受新闻伦理约束的 AIGC却能大批量、高效率地生成新闻报道当大量 AIGC 假新闻涌入信息平台,而大众却未拥有辨别能力时,新闻领域就极可能出现“劣市驱逐良币"的态势。

3.从生产到分发:尚未做好准备的新闻业

而对 AIGC的入局,无论是生产还是分发,新闻业的上中下游似乎均未摸索出相对契合的共处之道,从而助推了 AIGC假新闻的畅行。从传统新闻生产环节考量,无论是 AIGC 技术缺陷导致“幻觉生成",抑或还是被刻意利用,当这一新技术带来的虚假新闻信息泛滥之时,社会公众对于新闻信息的信任度便随之下降,这给新闻从业者带来了全新的挑战。

美通社 2023 年全球媒体调查报告显示,在针对全球3132名记者的调查中,有27% 的被调查者认为,保持作为可靠新闻来源的可信度,是新闻行业在这一年面临的最大挑战。在被问及新闻从业者和新闻机构的最优先事项时,“保持”内容准确大幅领先于其他选项。同 一方面AIGC 技术能够让人类记者从较为繁琐、机械的基础工作中解脱出来。另一方面,一旦新闻机构越来越多地将生产新闻的能力让渡给 A1,与之相匹配的信息核查制度却尚未建立,由此便可能导致未经核查的信息加速流入网络,造成真实性的污染。

从新闻分发环节考量,传统媒体时代,新闻信息从采访、撰写到刊发,过程中经历了重重把关信息的真实性经过多重审查,确保出现在受众面前的新闻极少虚假。但平台化时代,人们已经更习惯从互联网直接获取信息,传统的“受众”向“用户”转变,新闻消费者与生产者的界限日益模糊,人人都可以发布信息,用户接收到的信息不完全来自权威的媒体信源。面对大量信息,平台的审核机制无法与传统媒体的把关机制一样行之有效,判断信息真实与否的环节从内容生产阶段后置到了信息消费阶段,而很难要求用户具备足够辨别假新闻的能力,这同样为AIGC 假新闻的盛行提供了空间。

算法同样会将用户更愿意听到的虚假声音进行精准推送。正如佐治亚理工学院交互计算学院副教授 Munmun de Choudhury所说:“人工智能生成的错误信息实际上往往具有更大的情感吸引力。” " 在算法对用户的精准了解和 AIGC 强大情感吸引力的双重加持下,AIGC 假新闻以用户最想看、最愿意相信的形式来到他们身边。

参考报告

腾讯研究院-形塑新闻:AI时代新闻业的7个变化.pdf

腾讯研究院-形塑新闻:AI时代新闻业的7个变化。时至2024年10月,生成式AI的热潮尚未褪去,但现实也已经与GPT-3刚刚发布时的那种狂热图景完全不同。人们开始更冷静地审视大模型的技术局限,更关注大模型在各种领域的实际应用与落地情况,以及由此带来的改变。腾讯研究院持续关注生成式AI对于新闻传媒行业的影响。在过去一段时间,我们做了三件事,第一件事是在2023年8月,发布了《拐点时刻?AIGC时代的新闻业》报告,这份报告得到了内外部许许多多的关注和反馈;第二件事是我们在今年的“仲夏六日谈”节目上,举办了“AI时代的新闻传媒业”专场,邀请到四位业内资...

查看详情
相关报告
我来回答