刊于《信报》,2025年8月11日

人类独立分析判断习性不可动摇

许佳龙

科大商学院署理院长;信息、商业统计及营运学系讲座教授;艾礼文家族商学教授

麻省理工学院(MIT)不久前发表了一份研究报告——《你的大脑在ChatGPT中:使用AI协助撰写论文的认知债累积》(Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task‧下简称《MIT报告》)。该项研究的接受测试者分为三组,一是使用ChatGPT大语言模型的LLM组;二是使用Google的搜索引擎组;三是只用人类大脑的Brain-Only组。

受试者在三个月内进行3次论文写作任务。在第四个月执行第4次实验时,原本使用LLM的被分配到只能使用大脑,而原本只能用人类大脑的,则被调换到LLM组。在这过程中,研究人员利用脑波图(Electroencephalography,EEG)装置,实时侦测参与者的大脑活动,以评估他们的认知投入与认知负荷。结果发现,长期依赖ChatGPT协助撰写的受试者,大脑活跃度低于使用搜索引擎或是完全不使用科技工具辅助写作的受试者。

能力弱化非杞人之忧

研究结果不期然令笔者想起,对生成式AI应用分析,笔者在本栏和其他媒体曾多次指出,虽然AI有效率地替我们完成工作,但我们必须关注人类过度倚赖AI而造成能力弱化的潜在负面后果。今次MIT这项研究结果,正好印证了笔者的忧虑并非杞人忧天。

在差不多时段,「常识媒体」(Common Sense Media) 联同Harvard Graduate School of Education 亦发表了一份青少年如何看待生成式AI的报告(Teen and Young Adult Perspectives on Generative AI:Patterns of use, excitements, and concerns‧下简称《CSM报告》),报告数据来自2023年10月至11月期间,对1,274名年龄介乎14-22岁美国青少年所进行的调研。

结果发现,51%年轻人曾使用生成式AI,最常见的用途,是「获取信息」(53%)和「脑力激荡」(51%);曾经使用生成式AI的群体中,非洲裔和拉丁裔年轻人在大多数活动如「协助做功课」、「制作图片和音乐」等,使用率显著更高,更倾向用AI来完成工作任务。

只看效率衍生遗害

这两项研究结果,无疑给人类应用AI提供了可贵启迪——我们必须有全面视阈,不能只看AI带来高效的一面。

若从良性竞争角度,运用AI来「挑战」自身的潜能,或者使用AI来辅助我们作出更全面的分析,则AI 的应用对人类有所增益。AI可以作为一个解释工具,协助人类更有效率地学习或工作。然而,倘若运用AI,是用来替我们完成工作,自己「不用脑」而坐享其成,则势必成为问题。

据《CSM报告》的调研,除了发现不同族裔群体使用AI有不同的接受程度和使用频度外,与异性恋年轻人相比,LGBTQ+(性少数群体)年轻人更多认为,生成式AI对其影响主要是负面而非正面。这项发现其实也显示了AI应用的另 一个忧虑,即有机会进一步造成群体分化和不平等。据《CSM报告》结论提到,「获取生成式人工智能及其影响的方式,可能会对社会经济地位较低的人群产生不同的影响」笔者担心,生成式 AI的应用,有机会进一步加剧「数码鸿沟」的深度与广度。

「习非成是」风险

关于生成式AI的产生方法,笔者在本栏曾详细阐释,是建基于过去海量的文章、文献和互联网上所有相关信息等,作为内容生成基础,而这些文章文献信息等内容,若然已含有现实世界的不平等成份,则生成式AI绝对有机会把这些带有不平等、岐视、偏见性质等东西,在其生成内容中一并产生出来。若然年轻人大量地引用生成式AI,去辅助其识见成长与积累,以及撰写工作的内容生成,不排除他们有机会没有过滤地接受了这些不平等、岐视性和偏见价值观,使之得到更广泛的传播、巩固,甚至不幸出现「习非成是」的错误后果,此举对我们今天热切追求的平等和包容性社会,实在有所扞格,而且思之也令人十分忧虑。

记得2018年发生一宗在互联网上影响网民和社交媒体用户思想的事故——剑桥分析公司(Cambridge Analytica)利用脸书(Facebook)平台的运营漏洞,未经许可,大量收集脸书用户的信息数据。负责收集数据的剑桥心理学教授科根(Aleksandr Kogan),透过一个性格测试应用程序(APP),邀请了约 32万脸书用户参与测试。他通过收集这批参与者的个人信息及点赞记录,再从中收集参与者在脸书上的网友资料,顺滕摸瓜,最终收集了逾5000万脸书用户的数据,事件轰动一时。

严防操控思想隐性手段

这项性格测试,当中其实酝含了影响别人思想的隐性操控手段。在日益普遍应用生成式AI上,会否也有人采用类似隐性手段,植入某些内容,从而去影响别人的思想?这一点很值得留意。因为当大家把生成式AI,当成是一个无所不知的「百晓生」、一个万能工具、一个有问必答的百宝箱,笔者身边便有不少朋友,几乎凡有问题都去问聊天机械人,以它的生成内容,作为问题的答案。笔者对此行为的潜在泛滥趋势深感不安。剑桥分析公司事件中的性格测试,受试者恐怕连自己的思想受到别人诱导和操控,也惘然不知,反忖人类实在必须坚守独立思考、分析和判断的习性,不可丝毫动摇!

对于生成式AI应用带来的问题,笔者还想提出两个有趣、却又深具意义的例子,包括「猫咪攻击」(CatAttack),囿于篇幅,另文讨论。

Read Article