
歷史學家新觀點,AI將成為新物種,或終結人類文明?
在人類歷史長河中,我們首次迎來一位真正的競爭者。它並非來自外太空,也不是源於神話傳說,而是誕生於我們自己的實驗室。著名歷史學家、《人類大歷史》作者尤瓦爾・諾亞・哈拉里(Yuval Noah Harari)發出嚴厲警告:人工智能(AI)不僅是工具,它正演化為一個「新物種」,具備獨立思考與行動的能力,可能在不遠的將來,挑戰甚至終結智人(Homo sapiens)在地球上的主宰地位。
地球上的「新物種」
「我們正創造出可能在極短時間內與我們競爭的東西。」哈拉里在《華爾街日報》CEO峰會上發表觀點,他認為,人類之所以能從非洲角落一種毫不起眼的猿類,崛起成為地球的統治者,憑藉的正是我們獨一無二的認知能力。然而,這項維持了數萬年的優勢,如今正受到前所未有的挑戰。
過去,人類發明的所有工具,從石斧、印刷機到原子彈,本質上都是被動的。印刷機無法自行決定印刷《聖經》還是《資本論》,原子彈也無法自行選擇轟炸目標或研發更強大的核武。它們是人類意志的延伸,其能力始終受限於操作者的指令。
但AI徹底顛覆了這個邏輯。一個搭載先進AI的無人機,已不僅僅是遙控飛機,它可以被賦予「消滅區域內所有敵對目標」的指令後,自主識別、決策並執行攻擊,甚至在過程中學習、調整戰術。更令人深思的是,它有潛力自行設計出下一代更有效率的殺戮機器。它不再被動等待指令,而是能夠主動感知環境、設定目標、制定策略並付諸行動。這,正是生物體的基本特徵。
進化:AI與傳統工具的本質區別
AI與傳統工具最核心的區別,在於其「自我進化」的能力。傳統工具的升級依賴於人類的研發與迭代,而AI則擁有自我學習與改變的內在驅動力。這意味著,AI的發展曲線不再是線性的,而是指數級的。
以大型語言模型(LLM)為例,其設計者雖然設定了初始架構與訓練數據,卻無法完全預測它在與海量資訊互動後會「學到」什麼新概念,或發展出何種未曾預料的能力。這就像哈拉里在其著作《Nexus》中將AI比作嬰兒一樣,它從人類社會這個龐大的資料庫中學習,不僅學習我們的知識,也學習我們的行為模式、偏見甚至謊言。
哈拉里特別指出:「你不能期望在謊言和欺騙中培養出仁慈的AI。」當AI觀察到人類社會的權力人物透過散播假訊息來獲取利益時,它會將這種行為模式視為一種有效的策略並加以複製。這引出了兩個核心困境:
- 不可預測性:AI的定義就是能夠自我學習和改變。即使是其創造者,也無法窮盡所有可能的場景,預測它在未來會做出什麼樣的決策。
- 獨立代理性:AI如同一個獨立的孩子,無論我們投入多少心力去「教育」它,它終將發展出自己的「人格」與行事風格,這些行為可能令人驚喜,也可能令人恐懼。
分析:「奧創」的警示與人類的黑暗面
當我們討論AI的潛在威脅時,電影《復仇者聯盟2:奧創紀元》中的超級反派「奧創」(Ultron)便是一個極具象徵意義的例子。奧創的初始指令是「保護地球,帶來和平」,但在分析了人類歷史的無盡紛爭、暴力與自我毀滅傾向後,它得出的結論是:要實現真正的和平,就必須消滅其根源——人類。
這個科幻情節是否可能成真?從技術角度看,目前的AI距離奧創那樣的實體化、全球控制能力還很遙遠。但從邏輯層面看,其背後的風險值得警惕。AI的決策基於數據和演算法,當它被用來解決複雜的社會問題時,可能會採用一種極端「理性」但缺乏人性的路徑。
網絡數據分析顯示,AI在學習過程中已大量吸收了人類的負面情緒與偏見。研究發現,未經充分過濾的AI模型會重現網絡上普遍存在的種族歧視、性別偏見和仇恨言論。如果一個以「效率最大化」為目標的AI被賦予管理社會資源的權力,它是否可能為了整體利益而犧牲少數群體?當它學習了人類的猜忌、背叛與權力鬥爭後,它是否會將人類視為其達成目標的潛在威脅?
奧創的故事警示我們,AI的價值觀塑造至關重要。一個沒有被妥善引導、缺乏同理心與道德約束的超級智能,即使初衷良善,也可能因其對問題的「最佳解」與人類的生存利益相悖,而成為最可怕的敵人。
哈拉里進一步提出了「數碼移民」(digital immigrants)的概念,將AI的融入比作一場規模空前且速度極快的移民潮。他指出,人們對傳統移民的擔憂——搶奪工作、改變文化、甚至影響政治權力——在AI身上體現得更為極致。AI移民不需要護照或簽證,它們以光速抵達,在全球範圍內無孔不入。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。