刊於《信報》,2025年8月11日
人類獨立分析判斷習性不可動搖
許佳龍
科大商學院署理院長;資訊、商業統計及營運學系講座教授;艾禮文家族商學教授
麻省理工學院(MIT)不久前發表了一份研究報告——《你的大腦在ChatGPT中:使用AI協助撰寫論文的認知債累積》(Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task‧下簡稱《MIT報告》)。該項研究的接受測試者分為三組,一是使用ChatGPT大語言模型的LLM組;二是使用Google的搜尋引擎組;三是只用人類大腦的Brain-Only組。
受試者在三個月內進行3次論文寫作任務。在第四個月執行第4次實驗時,原本使用LLM的被分配到只能使用大腦,而原本只能用人類大腦的,則被調換到LLM組。在這過程中,研究人員利用腦波圖(Electroencephalography,EEG)裝置,即時偵測參與者的大腦活動,以評估他們的認知投入與認知負荷。結果發現,長期依賴ChatGPT協助撰寫的受試者,大腦活躍度低於使用搜尋引擎或是完全不使用科技工具輔助寫作的受試者。
能力弱化非杞人之憂
研究結果不期然令筆者想起,對生成式AI應用分析,筆者在本欄和其他媒體曾多次指出,雖然AI有效率地替我們完成工作,但我們必須關注人類過度倚賴AI而造成能力弱化的潛在負面後果。今次MIT這項研究結果,正好印証了筆者的憂慮並非杞人憂天。
在差不多時段,「常識媒體」(Common Sense Media) 聯同Harvard Graduate School of Education 亦發表了一份青少年如何看待生成式AI的報告(Teen and Young Adult Perspectives on Generative AI:Patterns of use, excitements, and concerns‧下簡稱《CSM報告》),報告數據來自2023年10月至11月期間,對1,274名年齡介乎14-22歲美國青少年所進行的調研。
結果發現,51%年輕人曾使用生成式AI,最常見的用途,是「獲取信息」(53%)和「腦力激盪」(51%);曾經使用生成式AI的群體中,非洲裔和拉丁裔年輕人在大多數活動如「協助做功課」、「製作圖片和音樂」等,使用率顯著更高,更傾向用AI來完成工作任務。
只看效率衍生遺害
這兩項研究結果,無疑給人類應用AI提供了可貴啟迪——我們必須有全面視閾,不能只看AI帶來高效的一面。
若從良性競爭角度,運用AI來「挑戰」自身的潛能,或者使用AI來輔助我們作出更全面的分析,則AI 的應用對人類有所增益。AI可以作為一個解釋工具,協助人類更有效率地學習或工作。然而,倘若運用AI,是用來替我們完成工作,自己「不用腦」而坐享其成,則勢必成為問題。
據《CSM報告》的調研,除了發現不同族裔群體使用AI有不同的接受程度和使用頻度外,與異性戀年輕人相比,LGBTQ+(性少數群體)年輕人更多認為,生成式AI對其影響主要是負面而非正面。這項發現其實也顯示了AI應用的另 一個憂慮,即有機會進一步造成群體分化和不平等。據《CSM報告》結論提到,「獲取生成式人工智能及其影響的方式,可能會對社會經濟地位較低的人群產生不同的影響」。筆者擔心,生成式 AI的應用,有機會進一步加劇「數碼鴻溝」的深度與廣度。
「習非成是」風險
關於生成式AI的產生方法,筆者在本欄曾詳細闡釋,是建基於過去海量的文章、文獻和互聯網上所有相關信息等,作為內容生成基礎,而這些文章文獻信息等內容,若然已含有現實世界的不平等成份,則生成式AI絕對有機會把這些帶有不平等、岐視、偏見性質等東西,在其生成內容中一併產生出來。若然年輕人大量地引用生成式AI,去輔助其識見成長與積累,以及撰寫工作的內容生成,不排除他們有機會沒有過濾地接受了這些不平等、岐視性和偏見價值觀,使之得到更廣泛的傳播、鞏固,甚至不幸出現「習非成是」的錯誤後果,此舉對我們今天熱切追求的平等和包容性社會,實在有所扞格,而且思之也令人十分憂慮。
記得2018年發生一宗在互聯網上影響網民和社交媒體用戶思想的事故——劍橋分析公司(Cambridge Analytica)利用臉書(Facebook)平台的運營漏洞,未經許可,大量收集臉書用戶的信息資料。負責收集資料的劍橋心理學教授科根(Aleksandr Kogan),透過一個性格測試應用程式(APP),邀請了約 32萬臉書用戶參與測試。他通過收集這批參與者的個人資訊及點贊記錄,再從中收集參與者在臉書上的網友資料,順滕摸瓜,最終收集了逾5000萬臉書使用者的資料,事件轟動一時。
嚴防操控思想隱性手段
這項性格測試,當中其實醞含了影響別人思想的隱性操控手段。在日益普遍應用生成式AI上,會否也有人採用類似隱性手段,植入某些內容,從而去影響別人的思想?這一點很值得留意。因為當大家把生成式AI,當成是一個無所不知的「百曉生」、一個萬能工具、一個有問必答的百寶箱,筆者身邊便有不少朋友,幾乎凡有問題都去問聊天機械人,以它的生成內容,作為問題的答案。筆者對此行為的潛在泛濫趨勢深感不安。劍橋分析公司事件中的性格測試,受試者恐怕連自己的思想受到別人誘導和操控,也惘然不知,反忖人類實在必須堅守獨立思考、分析和判斷的習性,不可絲毫動搖!
對於生成式AI應用帶來的問題,筆者還想提出兩個有趣、卻又深具意義的例子,包括「貓咪攻擊」(CatAttack),囿於篇幅,另文討論。