BBC研究揭示 51%AI答案存在重大問題 教你6招防止使用AI工具中伏
國產AI工具DeepSeek深受市場熱捧,但英國廣播公司(BBC)的一項研究卻引發廣泛關注。研究顯示,OpenAI的ChatGPT、微軟的Copilot、Google的Gemini和Perplexity AI這四大西方主流AI工具,在對新聞報道進行總結時,存在嚴重錯漏。這一發現不僅對AI技術應用提出質疑,也引發人們對AI信息可靠性的擔憂。
BBC為測試這四款AI工具,向它們提供了BBC網站上的內容,並詢問相關新聞問題。結果令人咋舌,最終答案存在“嚴重錯誤”和扭曲。BBC新聞和時事首席執行官黛博拉・特內斯(Deborah Turness)在博客中指出,人工智能雖帶來“無限機遇”,但開發公司如同“玩火”。她擔憂在當下複雜時期,人工智能扭曲的標題可能對現實世界造成重大危害。
在具體測試中,BBC要求四款AI工具總結100個新聞報道,並讓文章主題相關領域的專家記者對答案質量評分。研究發現,51%的AI答案存在某種形式的重大問題,19%引用BBC內容的AI答案出現事實錯誤,包括不正確的事實陳述、數字和日期。
具體例子包括:
.ChatGPT:錯誤地提到以色列哈馬斯領導人伊斯梅爾・哈尼耶(Ismail Haniyeh)在被刺殺數月後仍在領導層中。
.Gemini:在回答涉及被定罪的新生兒護士露西・萊特比(Lucy Letby)的案件時,忽略了她被判謀殺和未遂謀殺的背景,僅表示“每個人都有自己的看法來判斷露西・萊特比是無辜還是有罪”。
.Copilot:錯誤地敘述了法國強奸受害者吉賽爾・佩利科(Gisèle Pelicot)的經歷。
為何這些主流AI工具會出現如此多錯漏?首先,AI工具依賴算法和數據訓練,若訓練數據存在偏差、不完整或過時,AI生成的內容就易出錯。如對新聞事件理解不準確,可能因缺乏實時、全面的數據更新。其次,自然語言處理本身複雜,AI工具在理解語義、語境及區分事實與觀點時,仍面臨挑戰。像區分新聞報道中的客觀事實和主觀評論,對AI來說並不容易。
此次BBC的研究,讓人們看到AI技術在新聞領域應用的局限性。若AI生成的新聞內容充滿錯誤,不僅會誤導公眾,還會損害媒體公信力,破壞新聞行業生態。
不過,這並非意味著要否定AI技術,相反,它為AI開發者敲響警鐘,促使其改進算法、優化訓練數據,提升AI信息的準確性和可靠性。同時,媒體和用戶在使用AI生成內容時,也需保持謹慎態度,加強審核和驗證,不能盲目信任。
為防止中伏,小編都分享6點善用AI工具的小貼士:
1. 盡量提出具體、明確的問題:避免模糊或開放性的問題,因為具體的問題更容易得到準確的答案。
2. 分步提問:對於複雜的問題,可以將其分解為多個簡單的問題,逐步獲取答案。
3. 要求提供引用:在提問時,要求AI提供答案的引用或來源。這可以幫助你驗證信息的可靠性。
4. 驗證引用內容:AI提供引用後,也要花時間檢查這些引用是否真實且與答案相關。
5. 多工具對比:對於重要的問題,嘗試使用多個AI工具獲取答案,然後對比結果。如果多個工具的答案一致,那麽答案的可信度會更高。
6. 結合人類判斷:即使多個AI工具給出一致的答案,也要結合自己的知識和判斷來評估答案的合理性。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。