
面對資訊爆炸的時代,許多人習慣仰賴 AI 工具整理新聞、摘要重點。然而,一項國際大型研究揭露,主流 AI 在新聞理解和呈現上存在普遍性的錯誤,這項發現無疑敲響了警鐘,提醒我們在使用 AI 新聞助理時需要更加謹慎。
主流 AI 竟成假訊息幫兇?
根據歐洲廣播聯盟(EBU)和英國廣播公司(BBC)近期共同發表的重量級研究,目前市面上領先的 AI 助理,包含 ChatGPT、Copilot、Gemini 和 Perplexity,在新聞內容的傳達方面都存在重大問題 (EBU & BBC, 2025)。
這項橫跨 18 個國家、涵蓋 14 種語言的調查,針對 AI 助理對 3000 多個新聞相關問題的回覆進行分析,結果顯示令人震驚:
- 高達 45% 的回覆至少帶有一項重大錯誤 (EBU & BBC, 2025): 這意味著你從 AI 那裡獲得的新聞資訊,幾乎有一半的機率是不正確的。
- 31% 的回覆存在嚴重的引用問題 (EBU & BBC, 2025): 例如缺少來源連結,或提供具誤導性、錯誤的引用標註,讓使用者難以查證資訊的真實性。
- 20% 的回覆含有重大準確性問題 (EBU & BBC, 2025): 包括 AI 捏造新聞細節,或提供過時的無效資訊。
歐洲廣播聯盟副總幹事 Jean Philip De Tender 警告,如果 AI 傳達虛假消息的情況持續,人們最終會對一切失去信任,進而削弱民主參與的意願 (TechOrange, 2025)。
Gemini 表現墊底,來源問題最嚴重
研究進一步指出,各家 AI 助理的表現不一,其中 Google 的 Gemini 在新聞理解上問題最為嚴重。據 Yahoo奇摩新聞報導,Gemini 的錯誤率高達 76%,主要由於「來源處理」嚴重失準與不透明 (Yahoo奇摩新聞, 2025)。例如,Gemini 在「電子煙相關法律」相關新聞動態整理方面,曾出現完全錯誤的陳述 (TechOrange, 2025)。
即使是表現相對較佳的 ChatGPT,仍然存在明顯的失真情況。常見問題包括來源缺失、誤引或不相關引用,且往往以自信的語氣呈現,容易誤導對相關議題不熟悉的讀者 (數位時代, 2025)。
信任危機:民眾怪罪媒體?
更令人擔憂的是,當 AI 出現錯誤時,民眾不僅會把責任歸咎給 AI 開發者,更會將矛頭指向新聞媒體 (104職場力, 2025)。儘管這些錯誤可能是由於 AI 模型本身的缺陷所造成,大眾對於新聞內容及品牌的信任度依然會因此遭到削弱。
一份由 BBC 所進行的研究也發現,超過三分之一的英國成年人完全信任由 AI 所生成的新聞重點摘要,而 35 歲以下族群的信任度更將近二分之一 (TechOrange, 2025)。這種過高的信任度,加上 AI 實際上的高錯誤率,無疑埋下了訊息誤導的隱憂。
媒體如何應對?EBU 提出誠信指引
面對 AI 的新聞資訊錯誤問題,EBU 和 BBC 提出了《人工智慧助理新聞誠信指引》,希望協助媒體業與 AI 開發商解決相關問題 (數位時代, 2025)。
該指引強調,高品質的 AI 新聞回應應具備以下特質 (104職場力, 2025):
- 準確性:訊息是否正確無誤。
- 提供情境:訊息是否完整、必要且相關。
- 區分意見與事實:資訊本質是否清楚。
- 來源引用:資訊來源是否清晰準確。
此外,指引也呼籲科技公司、新聞機構與監管者攜手合作,提升來源透明度、標示 AI 內容、改善訓練數據,並建立獨立審核機制 (數位時代, 2025)。
台灣讀者如何自保?
在 AI 新聞助理的錯誤率普遍偏高的現況下,台灣讀者在使用 AI 獲取新聞資訊時,應保持警惕,並採取以下措施 (Yahoo奇摩新聞, 2025):
- 要求 AI 列出清晰可點擊的來源。
- 檢視回應的日期與版本。
- 交叉比對公共媒體與官方文件。
- 對無法追溯的結論保持保留。
總之,AI 技術在新聞領域的應用仍處於發展階段,我們在使用 AI 助理獲取新聞資訊時,切勿全盤信任,應保持批判性思考,並積極查證資訊來源,才能避免受到假訊息的誤導。
參考文獻
- EBU & BBC. (2025). *News Integrity in AI Assistants*.
- 數位時代. (2025年11月3日). AI 助理在新聞中的使用與認知:國際研究揭露 AI 助理在處理新聞內容時存在嚴重的系統性錯誤。取自 https://www.bnext.com.tw/article/84883/ai-assistants-misrepresent-news
- TechOrange. (2025年11月3日). 【AI 整理新聞普遍有錯】主流 AI 被考倒,ChatGPT、Copilot、Gemini、Perplexity 都翻車. 取自 https://techorange.com/2025/11/03/ai-assistant-error-news-bbc/
- 104職場力. (2025年11月3日). AI新聞助手錯得離譜?BBC實測揭:45%回覆在誤導你!. 取自 https://blog.104.com.tw/news-integrity-in-ai-assistants/
- Yahoo奇摩新聞.(2025年11月3日). 45% AI 助理亂報新聞?Gemini、ChatGPT 問題最大! BBC、EBU 聯合研究揭示 AI 助理的嚴重缺陷. 取自 https://tw.news.yahoo.com/45-ai-%E5%8A%A9%E7%90%86%E4%BA%82%E5%A0%B1%E6%96%B0%E8%81%9E%EF%BC%9Fgemini%E3%80%81chatgpt-%E5%95%8F%E9%A1



發佈留言