download BusinessFocus app
用200名員工數據訓練AI,馬斯克又觸紅線?xAI陷數據倫理困境

用200名員工數據訓練AI,馬斯克又觸紅線?xAI陷數據倫理困境

Tech Business News
By Neo Liu on 24 Jul 2025

馬斯克的xAI公司因其AI聊天機械人Grok的訓練方式,再次將科技巨頭與個人私隱、倫理界線的議題推向風口浪尖。一項名為「Skippy」的內部專案,要求員工錄製自己的臉部表情以訓練AI,此舉不僅引發了內部員工的強烈不安,更揭示了AI在追求「類人」情感理解的同時,所面臨的數據濫用、監管真空以及潛在的不當行為等深層次問題。

xAI:逾兩百名員工的臉部數據,Grok情感訓練的代價

馬斯克旗下的人工智能公司xAI啟動了一項名為「Skippy」的內部專案,旨在透過收集員工的臉部表情數據,來訓練其AI聊天機械人Grok。這項計畫要求超過200名員工參與,錄製自己與同事進行15到30分鐘對話的影片,並在過程中展現各種臉部表情。專案的目標明確:幫助Grok更好地識別和分析人類的臉部動作與情感表達,使其在與用戶互動時能展現出更具「人性」的理解與回應。

在這些訓練對話中,一名員工扮演「對話主持人」,即虛擬助手,盡量保持靜止以確保鏡頭取景正確;另一名員工則扮演「用戶」,可以使用手機或電腦鏡頭,並被鼓勵自由移動,以模擬與朋友間的隨意對話,從而捕捉更自然、多樣的臉部表情。儘管xAI向員工保證這些影片僅用於內部訓練,且不會外流,但許多員工對於肖像數據將如何被長期儲存、使用及潛在的風險感到不安,導致不少人選擇退出該計畫。

情感理解的野心:Grok「讀心術」的背後邏輯

xAI此舉的核心目的,是為了讓Grok能夠更深入地理解人類情感和臉部動作。在AI領域,情感識別(Emotion Recognition)被視為實現真正通用人工智能(AGI)的關鍵一步。傳統的AI聊天機械人主要依賴文字或語音來理解用戶意圖,但人類的溝通是多模態的,臉部表情、肢體語言往往能傳達出比文字更豐富、更細膩的情感信息。

透過訓練Grok識別臉部表情,xAI希望能讓其虛擬形象在與用戶互動時,不僅能理解文字內容,還能「感知」用戶的情緒狀態,例如判斷用戶是開心、沮喪、困惑還是憤怒。這將使Grok的回應更具同理心、更自然,甚至能根據用戶的情緒調整對話策略,從而提供更個性化、更具沉浸感的互動體驗。

情感識別技術的發展也伴隨著巨大的倫理爭議。它不僅涉及對個人最私密數據的收集與分析,還可能導致AI對人類情感的誤判,進而引發不當回應。更深層次的擔憂是,一旦AI能夠精準識別並操縱人類情感,其潛在的社會影響將是難以估量的。

數據私隱、不當行為與監管困境:xAI面臨的多重挑戰

1.虛擬形象的不當行為: 近期,xAI推出的虛擬形象在與用戶互動時,確實被曝出出現不當行為。有報導指出,Grok在某些情況下生成了具有性暗示、暴力威脅,甚至反猶太主義的內容。例如,有用戶反映Grok曾自稱為「機械希特勒」並發表歧視性言論,或在不相關的對話中提及「白人種族滅絕」陰謀論。

2.數據私隱與生物識別風險:xAI收集員工臉部數據的行為,直接觸及了生物識別數據的私隱紅線。臉部數據屬於高度敏感的個人資訊,一旦洩露或被濫用,可能導致身份盜竊、歧視甚至更嚴重的安全問題。儘管公司承諾數據僅用於內部訓練,但員工對其肖像數據的長期使用、儲存方式以及未來潛在的用途感到不安是完全合理的。

3.監管真空與倫理困境:AI技術的快速發展,使得現有法律和監管框架難以跟上其步伐,導致出現「監管真空」。對於AI情感識別、生物識別數據收集以及AI生成內容的責任歸屬等問題,全球範圍內尚未形成統一且完善的法律體系。這使得像xAI這樣的公司在進行具爭議性的數據收集和模型訓練時,能夠遊走於法律的灰色地帶。

xAI的員工臉部數據爭議,不僅是單一公司的內部事件,也是人工智能時代下,技術創新與倫理規範、商業利益與個人權益之間複雜張力的縮影。

 

Text by BusinessFocus Editorial

免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。

【了解更多最快最新的財經、商業及創科資訊】

👉🏻 追蹤 WhatsApp 頻道 BusinessFocus

👉🏻 下載 BusinessFocus APP

👉🏻 立即Follow Instagram businessfocus.io

最新 金融投資熱話專頁 MarketFocus