首页 > 灵异恐怖 > 师生心理学江湖:对话手册 > 第228章 课 港大“幽灵引用”撤稿案比AI幻觉更危险的,是人类放弃自查

第228章 课 港大“幽灵引用”撤稿案比AI幻觉更危险的,是人类放弃自查(1/2)

目录

港大一篇题为《香港40年生育转变》的论文,2025年10月刚发表就因“幽灵引用”陷入风波。论文里二十多篇格式规范的参考文献,竟全是AI生成的虚构内容,更讽刺的是,其中一篇还赫然署着通讯作者叶兆辉的名字——这位导师却从未写过该文。12月论文被撤,叶兆辉因监管失职卸任学院职务,博士生白逸铭被追责。这场闹剧的核心并非AI“胡说八道”,而是人类彻底放弃了核查本能:学生没花十分钟验证文献真伪,导师没通读论文发现漏洞。这堂课将从心理学、《易经》智慧与哲学思辨的角度,拆解AI时代人类“自查缺位”的深层危机,带你看清“工具依赖”与“独立判断”的博弈边界。

课堂对话实录

——AI时代,我们为何弄丢了“较真”的能力?

(场景:港大人文社科阶梯教室,午后阳光斜斜照在黑板上。和蔼教授站在讲台中央,身后投影屏赫然显示着“幽灵引用”事件的新闻标题。叶寒、秦易、许黑、蒋尘、周游、吴劫六位学生坐在前排,笔记本摊开,眼神里满是好奇。)

和蔼教授:(放下手中的保温杯,笑着看向台下)同学们,今天我们不讲晦涩的理论,就聊一个最近刷屏的新闻——咱们学校那篇“幽灵引用”论文撤稿案。秦易,你先说说,这件事最让你觉得离谱的地方是什么?

秦易:(推了推眼镜,脱口而出)教授,我觉得最魔幻的是那个署名乌龙!通讯作者叶兆辉老师,自己被引用了一篇从没写过的论文,居然从头到尾没发现。这就像有人把你的名字印在一本你没读过的书上,你还签字说“这是我写的”,太不可思议了!

和蔼教授:(点头)说得好。这背后其实藏着一个心理学概念——习惯性依赖。心理学上有个“责任分散效应”,当一个任务由多人协作完成时,每个人的责任感都会被稀释。博士生白逸铭觉得“导师会把关”,导师叶兆辉觉得“学生已经反复核对过”,最后谁都没真正去查那些引用。这种“反正有人会做”的心态,比AI幻觉更可怕。

许黑:(突然举手,语气带着点不服气)教授,我觉得不能全怪他们!现在AI太智能了,生成的文献格式比我自己排版都规范,标题、期刊、年份一应俱全,换谁第一眼看上去,都觉得是真的吧?AI的“创造性补全”模式,就是专门制造这种“逼真的谎言”啊!

和蔼教授:(挑眉)许黑这个点问到了关键。AI生成内容时,用的是“预测式写作”——它会根据上下文,拼出最符合逻辑的内容,哪怕这个内容是假的。但大家想想,《易经》里“履卦”的智慧是什么?(转身在黑板上写下“履,履虎尾,不咥人,亨”)履卦讲的是“行走之道”,踩在老虎尾巴上却不被咬,靠的不是运气,而是“步步谨慎”。AI就像那只老虎,你用它的时候,不能闭着眼睛往前冲,得时刻盯着它的尾巴——也就是它生成内容的真实性。

叶寒:(托着下巴,若有所思)教授,您的意思是,《易经》的“慎始慎终”,放在今天就是“全程自查”?可我身边好多同学写论文,都是让AI生成引用,直接复制粘贴,连看都不看一眼。他们总说“AI比我靠谱”,这算不算一种哲学上的“工具异化”?

和蔼教授:(拍了拍手,语气赞许)叶寒这个词用得精准!哲学里的“异化”,指的是人类创造的工具,反过来支配了人类。马克思说过,“机器的发展,会使工人的劳动变得越来越片面”。放在AI时代,这个“片面”就变成了——我们把“思考”和“核查”的权利,全部让渡给了机器。蒋尘,你说说,你有没有过“依赖AI,放弃自查”的经历?

蒋尘:(不好意思地挠挠头)教授,我还真有!上次写课程论文,让AI帮我找参考文献,生成了十多篇,我直接抄进了论文里。后来导师让我去核对每篇文献的DOI号,结果发现有三篇根本查不到。现在想想,我当时就是偷懒,觉得“AI不会错”,其实是我自己放弃了“较真”的能力。

和蔼教授:(温和一笑)这很正常,人性本就有“趋利避害”的本能,自查这件事,费时费力,属于“反人性”的行为。但《易经》里“否卦”和“泰卦”的转换告诉我们,“否极泰来”的前提,是你主动去打破“闭塞不通”的局面。如果白逸铭当时能花十分钟,开个新的AI对话窗口,把引用列表丢进去问一句“这些文献是否真实存在”,九成的虚假内容都会原形毕露。这就是“主动破局”,而不是等着“事情自己变好”。

周游:(突然站起来,语气激动)教授,我有个疑问!既然AI能生成假文献,又能验证假文献,那为什么不能让AI全程闭环?比如,让生成内容的AI自己检查,不就万事大吉了吗?

和蔼教授:(摇了摇头,眼神里带着深意)周游,你这个想法,犯了一个哲学上的“循环论证”错误。同一个AI,既当“球员”又当“裁判”,它的验证结果,本质上是对自己之前生成内容的“自圆其说”。就像一个人说“我没撒谎”,你能直接信吗?心理学上有个“证实性偏见”,AI会下意识地维护自己的输出,哪怕这个输出是错的。所以,真正靠谱的验证,必须是“交叉验证”——让不同的AI互相核查,让人类做最终的判断。

吴劫:(皱着眉头,语气沉重)教授,我突然想到一个更可怕的问题。如果有一天,所有的学术研究、新闻报道、甚至医疗诊断,都依赖AI生成,而人类彻底放弃了自查,那我们会不会活在一个“被AI编织的谎言世界”里?就像《黑客帝国》里的矩阵,我们以为的“真实”,其实都是机器制造的幻觉。

和蔼教授:(眼神变得严肃)吴劫这个问题,戳中了AI时代的核心危机——人类判断力的退化。哲学里有个“认识论”的命题:“实践是检验真理的唯一标准”。AI生成的内容,再逼真也只是“理论假设”,必须经过人类的实践核查,才能成为“真理”。港大这个案例,就是一个活生生的教训:博士生没去谷歌学术搜那些文献,导师没去核对自己的署名,他们放弃了“实践检验”,最终被AI的幻觉反噬。

叶寒:(若有所思地补充)教授,我记得心理学上还有个“从众效应”。现在大家都在用AI,看到别人靠AI快速完成任务,自己也跟着学,哪怕知道可能有风险,也会因为“大家都这么做”而放弃警惕。这是不是也加剧了“自查缺位”的问题?

本章未完,点击下一页继续阅读。

目录
返回顶部