Ai助手
Home/AI / AI 整理新聞爆錯!ChatGPT、Gemini 等主流模型錯誤率高達90%?

面對資訊爆炸的時代,許多人習慣仰賴 AI 工具整理新聞、摘要重點。然而,一項國際大型研究揭露,主流 AI 在新聞理解和呈現上存在普遍性的錯誤,這項發現無疑敲響了警鐘,提醒我們在使用 AI 新聞助理時需要更加謹慎。

主流 AI 竟成假訊息幫兇?

根據歐洲廣播聯盟(EBU)和英國廣播公司(BBC)近期共同發表的重量級研究,目前市面上領先的 AI 助理,包含 ChatGPT、Copilot、Gemini 和 Perplexity,在新聞內容的傳達方面都存在重大問題 (EBU & BBC, 2025)。

這項橫跨 18 個國家、涵蓋 14 種語言的調查,針對 AI 助理對 3000 多個新聞相關問題的回覆進行分析,結果顯示令人震驚:

  • 高達 45% 的回覆至少帶有一項重大錯誤 (EBU & BBC, 2025): 這意味著你從 AI 那裡獲得的新聞資訊,幾乎有一半的機率是不正確的。
  • 31% 的回覆存在嚴重的引用問題 (EBU & BBC, 2025): 例如缺少來源連結,或提供具誤導性、錯誤的引用標註,讓使用者難以查證資訊的真實性。
  • 20% 的回覆含有重大準確性問題 (EBU & BBC, 2025): 包括 AI 捏造新聞細節,或提供過時的無效資訊。

歐洲廣播聯盟副總幹事 Jean Philip De Tender 警告,如果 AI 傳達虛假消息的情況持續,人們最終會對一切失去信任,進而削弱民主參與的意願 (TechOrange, 2025)。

Gemini 表現墊底,來源問題最嚴重

研究進一步指出,各家 AI 助理的表現不一,其中 Google 的 Gemini 在新聞理解上問題最為嚴重。據 Yahoo奇摩新聞報導,Gemini 的錯誤率高達 76%,主要由於「來源處理」嚴重失準與不透明 (Yahoo奇摩新聞, 2025)。例如,Gemini 在「電子煙相關法律」相關新聞動態整理方面,曾出現完全錯誤的陳述 (TechOrange, 2025)。

即使是表現相對較佳的 ChatGPT,仍然存在明顯的失真情況。常見問題包括來源缺失、誤引或不相關引用,且往往以自信的語氣呈現,容易誤導對相關議題不熟悉的讀者 (數位時代, 2025)。

信任危機:民眾怪罪媒體?

更令人擔憂的是,當 AI 出現錯誤時,民眾不僅會把責任歸咎給 AI 開發者,更會將矛頭指向新聞媒體 (104職場力, 2025)。儘管這些錯誤可能是由於 AI 模型本身的缺陷所造成,大眾對於新聞內容及品牌的信任度依然會因此遭到削弱。

一份由 BBC 所進行的研究也發現,超過三分之一的英國成年人完全信任由 AI 所生成的新聞重點摘要,而 35 歲以下族群的信任度更將近二分之一 (TechOrange, 2025)。這種過高的信任度,加上 AI 實際上的高錯誤率,無疑埋下了訊息誤導的隱憂。

媒體如何應對?EBU 提出誠信指引

面對 AI 的新聞資訊錯誤問題,EBU 和 BBC 提出了《人工智慧助理新聞誠信指引》,希望協助媒體業與 AI 開發商解決相關問題 (數位時代, 2025)。

該指引強調,高品質的 AI 新聞回應應具備以下特質 (104職場力, 2025):

  • 準確性:訊息是否正確無誤。
  • 提供情境:訊息是否完整、必要且相關。
  • 區分意見與事實:資訊本質是否清楚。
  • 來源引用:資訊來源是否清晰準確。

此外,指引也呼籲科技公司、新聞機構與監管者攜手合作,提升來源透明度、標示 AI 內容、改善訓練數據,並建立獨立審核機制 (數位時代, 2025)。

台灣讀者如何自保?

在 AI 新聞助理的錯誤率普遍偏高的現況下,台灣讀者在使用 AI 獲取新聞資訊時,應保持警惕,並採取以下措施 (Yahoo奇摩新聞, 2025):

  • 要求 AI 列出清晰可點擊的來源。
  • 檢視回應的日期與版本。
  • 交叉比對公共媒體與官方文件。
  • 對無法追溯的結論保持保留。

總之,AI 技術在新聞領域的應用仍處於發展階段,我們在使用 AI 助理獲取新聞資訊時,切勿全盤信任,應保持批判性思考,並積極查證資訊來源,才能避免受到假訊息的誤導。

參考文獻