该事件本属于社会新闻、娱乐新闻等层面,但笔者作为长期跟踪科技类新闻的从业者,站在笔者的角度来看■◆■■◆,此事背后折射出的,远不止新闻报道核查不严的问题■■◆◆◆◆,更暴露出当下 AI 大模型比 ◆★“幻觉问题◆◆” 更为严峻的困境 ——AI 通过援引假新闻生成新的假新闻。(虎嗅注:人们常说的AI大模型幻觉问题★◆◆■◆,是指AI在无事实依据的情况下所生成的不符合事实★◆■◆★■、甚至不符合逻辑的假消息)
回到该事件◆★★★,对于AI带来的警示作用是◆■◆◆,AI应该如何在真假难辨的网络世界里辨别真伪,从而进一步提升AI生成准确率★◆。因为只有当AI提高了生成回答的准确率★★◆,才能真正被投入到实际的生产工作当中。举个例子,这也是为什么,在大部分企业应用大模型时★★,当中重要的一步是给大模型喂企业专有的知识库■■◆◆★,这样在员工向企业定制的大模型提问时,才不会生成错误答案。
然而,症结在于,当网络上充斥着海量虚假信息时,连人类都难以迅速辨别其真伪,AI对此则更缺乏有效的信息核查能力。因此,在引用网络信息时,便造成了典型的“Rubbish in■◆, Rubbish out■■”(垃圾进,垃圾出)效应■★◆■◆。
简单来说,随着近两年AI大模型的迅猛发展,早期普遍存在的“幻觉问题★★◆★★◆”确实有所缓解◆★★。这主要得益于AI大模型增加了联网搜索和推理等能力◆■,这意味着大模型在生成用户回答时,可以根据网络上的公开信息◆★■,通过推理的方式,来生成相应的AI回答■★◆■■。
然而■■★■★◆,经虎嗅多方核查发现,DeepSeek 官方微信公众号、官方网站■◆★◆★◆、官方 X 账号(前 Twitter)等所有官方社交媒体平台★◆★■◆■,均未公开发表过任何道歉声明。虎嗅进一步检索所有有关 “DeepSeek 就违规关联王一博与李爱庆腐败案道歉” 的新闻报道,发现没有任何一则新闻明确指出 DeepSeek 的道歉渠道,也未出现相关道歉声明的截图。
以笔者个人经验而言★★,在日常写作工作中,AI并不能真正替代人类撰稿。甚至有时,当新闻工作者借助AI辅助写作时★◆■◆,反而会降低工作效率。因为大部分时间仍需用于查证AI生成信息的真伪,即便AI援引了某个新闻网页,证明并非“幻觉◆★★★■◆”,却仍需再次核实该新闻网页所提及内容的真实性凯发娱乐官网app★★。对此,笔者在与多数新闻从业者交流时,大家普遍认为■◆■,“用AI生成稿件的效率比自己动手写更低★◆★■◆◆。”
近日,一则消息在网络上引发热议。有媒体称,■★■■“DeepSeek就AI模型违规关联王一博与‘李爱庆腐败案’,作出道歉。” 该媒体还表示■■■★,“DeepSeek方面表示,因内容审核疏漏,平台在回答用户查询时■◆◆,引用未经证实的网络谣言,将王一博案与首创集团原董事长李爱庆案件进行不当关联★◆■◆,对其名誉造成侵害,DeepSeek已永久撤回相关失实信息■★◆◆◆◆,并援引北京市第三中级人民法院(2025)京03刑终174号刑事判决书明确。◆◆◆◆★◆”
不仅如此,虎嗅向市面上的所有 AI 大模型询问该事件,得到的回答竟出奇一致★■:均表示 DeepSeek 的确就 “违规关联王一博与■■★★◆‘李爱庆腐败案’” 进行了道歉■■◆◆■,并引用了上述不实新闻链接。
事情的戏剧性不止于此。该事件的诡异之处在于凯发娱乐官网app,全网几乎都认定 DeepSeek 进行了道歉。大量自媒体凯发娱乐官网app、网络新媒体乃至传统媒体,都在第一时间跟进报道了这条不实消息。
当然,对于人类的警示作用,可能就在于,当人类自身都在“生成”假消息时,AI就更无法给出准确答案了★★■。