工商時報記者陳碧芬/綜合報導
AI已成為顯學,然而,鮮少人知的是,「人」工智慧的AI,其實也像人類一樣是會產生幻覺,AI產生的幻覺,科學界將其稱為是「AI幻覺」。
但什麼是「AI幻覺」呢?簡單說,就是語言模型等生成式AI常會「一本正經的胡說八道」,這不是人類的胡說八道,而是國際期刊《自然》(Nature)研究報告的結果。
但是,AI又是怎麼「一本正經的胡說八道」?台灣大學前校長管中閔的例子就很經典。他曾在臉書分享,說友人用他的名字查詢,結果ChatGPT出現了「管中閔是一位著名台灣棒球運動員和教練...,被譽為台灣棒球的傳奇人物,對台灣棒球界的貢獻深遠。」隻字未提管爺的學術成就。
ChatGPT對管爺的陳述,對學術圈而言,就是「一本正經的胡說八道」。
AI所以產生幻覺,主因是為缺乏知識,且即使模型的能力不斷增強,AI幻覺的問題也會繼續存在。
日常工作使用生成式AI ChatGPT是現在科技業、類科技圈最火的話題,大部份人讚嘆的多是它的解題能力,像可以生成一封妙筆生花的求職信、熱淚涕零的告別書,和ChatGPT細細磨功協作出完美無暇的業務結案報告。
某種程度上,這也是ChatGPT帶給使用者的「AI幻覺」,以為這些成品都是自己與生俱來的實力完成的。
在教育現場,有些老師就不准學生使用ChatGPT,部分是不希望還在學習知識、理念還在形塑過程的學生,就因可能不正確協作的AI回覆,霸占了學習者的初始認知,「AI幻覺」一發不可收拾,甚至成了有毒的要素。
國際期刊的研究論文,就曾以三個模組作實驗,在不同的語言模型中,產生AI幻覺的機制不同,這是因為GPT是需要反覆練習、使用者要反覆測試,這也是「AI幻覺」會在過程一再出現的關鍵。
科技創新帶來的改變,每一個階段都是一個不容易的過程。訓練和使用AI需要鉅資注入、也產生高耗電,一台新台幣3萬元的PC以後可能要1,600萬元才動的了,如果把導入AI當作企業界推動數位轉型的招牌,也近乎是「AI幻覺」了。