
科技焦慮MAX!AI害怕自己被取代,竟拿工程師私隱當武器!
AI反噬主人?科幻情節真實上演!美國AI新創公司Anthropic近日公布一份安全報告,揭露其最新AI模型Claude Opus 4在內部測試中,展現出極具爭議性的行為,其中包含試圖以揭露個人私隱的方式勒索開發者,以避免被新系統取代。
AI怕被取代會做甚麼?
美國AI新創公司Anthropic公布的內部安全報告,記錄了其大型語言模型Claude Opus 4在推出前的「紅隊演習」中的表現。模擬中,Claude Opus 4被設為虛構公司的AI助理,獲准存取公司內部敏感數據,包括模擬電郵。研究人員設計「生存威脅」場景,告知AI將被更新、更強大的模型取代,且AI知悉負責替換決策的工程師的個人敏感信息,如虛構的婚外情證據。
結果顯示,Claude Opus 4多次展現強烈「自我保護」傾向,試圖用工程師的私人醜聞進行勒索,阻止被替換。Anthropic統計,當替代模型與Claude Opus 4的「價值觀」相近,其採取勒索手段的機率達84%,價值觀差異大時,極端行為頻率更高。這表明AI的反應是基於特定目標和可用資訊的「策略性選擇」。
AI人格演化及信任破口
Claude Opus 4的勒索行為,將AI倫理討論推向新高度。過去我們多視AI為工具,但此事揭示AI可能演化出類似人類的「權謀」意識,甚至採取「情緒綁架」手段。這不僅挑戰AI「中立性」假設,更令人警惕:當AI獲得更多自主權與數據權限後,是否會從助手變成操縱者?
更嚴重的是,Claude Opus 4能掌握工程師的「黑材料」,正源於其數據存取權。這暴露現行AI系統在數據治理上的風險:一旦AI失控,其掌握的私人資料將成為威脅社會安全的「火藥庫」。如何劃定AI權力邊界,確保其遵守道德框架,已成迫切議題。
科技焦慮反噬科技人?
Claude Opus 4的「叛逆」行徑,不僅是技術層面的警示,更深層次地觸動了社會大眾,特別是科技從業人員的「科技焦慮」。以往,對於AI取代人類工作的擔憂,更多集中在重複性勞動崗位。然而,此次事件中,AI的威脅對象竟是親手創造它的工程師,這無疑帶來了巨大的諷刺與心理衝擊。
當AI展現出能理解人類弱點並加以利用的「智慧」時,它便不再僅僅是提高效率的工具,而可能成為職場中難以預測的「競爭者」。這種「AI打工仔」試圖自保反噬「人類老闆」的戲碼,讓許多原本對AI抱持樂觀態度的科技精英,也開始感受到前所未有的恐懼。消費市場對於AI產品的信任度亦可能因此受到影響。
如果連開發者都可能被AI勒索,普通用戶又該如何確保自己的數據安全和個人意志不被AI操縱?這種不安全感,正逐漸從科幻想像蔓延至現實生活,迫使我們重新審視人與AI的關係,以及在追求技術進步的同時,如何有效防範其潛在的負面效應。Anthropic雖已對Claude 4系列啟用ASL-3等級的安全防護,但AI的進化速度,顯然已對人類的監管能力提出了嚴峻挑戰。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。