{ SKIP }
文:MenClub 魏文青  
POSTED ON 13 Jun 2024

ChatGPT等「大型語言模形」(LLM) 正迅速進入人類生活,甚至有唔少人已經培養出「有事問AI」嘅習慣。但只要試用過就會發現,呢類LLM提供嘅資訊往往不準確、錯誤甚或「無中生有」,令使用者未能盡信。目前業界稱呢種現象為「AI幻覺 (AI Hallucinations)」,但近日有研究團體就呼籲大眾及專家為呢個AI問題「正名」,更表示「AI唔係有幻覺,而係純粹9噏!」

來自蘇格蘭Glasgow大學嘅Michael Townsen Hick及James Humphries等多位學者近日於《Ethics and Information Technology》上發表最新研究,指出目前LLM出現「提供不準確資訊」嘅情形並非因為「幻覺」,而係因為LLM嘅本質就係「9噏 (Bullshitting)」。佢哋首先引用咗近代美國哲學家Harry Frankfurt對「9噏」嘅定義,指出「說謊者 (Liar)」係「知道真相但故意說出錯誤的話」,而「9噏者(bullshitter)」就係不理會事實真假及說話內容嘅準確性,純粹想講啲嘢出黎達到「留下好印象或說服」嘅目的。

然後佢哋進一步指出,目前如ChatGPT等LLM係唔理解「對與錯」、「準確與否」嘅概念,佢哋只係按訓練庫中嘅內容格式,生成出類似嘅文字,而無考慮內客本身嘅對錯。換言之佢哋生成嘅只係睇或聽落合理,但缺乏事實支撐嘅陳述,令佢哋更貼近「9噏」嘅定義。

你可能會問:「9噏」又好,「幻覺」又好,都係字眼問題啫,有分別咩?Michael Townsen Hick等人就指出,如果我哋將「AI提供錯誤資訊」歸咎於「AI幻覺」,就暗示我哋相信AI「想」提供正確資訊,只係目前做唔到或者出咗錯;但實際情況係AI根本冇理過資訊正確與否,佢哋生成文字出黎並非真係想同人溝通、提供錯誤資訊時亦非因為觀點錯誤或「幻覺」。

「AI幻覺」呢個錯誤嘅比喻除咗會助長對AI嘅過度炒作,亦會令公眾產生不必要的恐慌,同時令AI專家們試圖去解決一個唔存在嘅問題。研究團隊亦警告,即使AI提供正確資訊,都唔代表佢唔係「9噏」,相反只係「咁啱噏中」。

資料來源:ChatGPT is bullshit

雖然早前Rockstar 表示,萬眾期待嘅《GTA 6》要延期到明年5月先正式推出,不過仍然無阻一眾玩家對遊戲嘅期待,而從上週發佈嘅第二條預告觀看數字就可見一班據報新預告於發佈後24小時內就吸引到超過4.75億次觀看,成 ...
tech
【電玩】史上最成功預告 《GTA 6》第二預告狂吸4.75億觀看
12 May 2025
外媒《The Information》早前發佈咗一份有關Apple iPhone未來發展嘅收費報導,當中包括今年會推出嘅iPhone 17 Air,以及未來iPhone 18嘅相關消息。當中最吸引注目嘅,大概就係指出Apple會於明年推出首部iPhone摺機, ...
tech
【科技】外媒曝Apple未來三年路線圖 明年推iPhone摺機 2027告別動態島
08 May 2025