
不只聽指令! AI竟可自組社會? 建立自身規範與習俗
AI的「社交圈」驚現?倫敦大學城市學院與哥本哈根信息技術大學的研究團隊近日進行一項突破性實驗,發現人工智能(AI)在無人為干預下,能自行形成類似人類的社會規範與習俗。這項研究成果已於5月14日刊登於國際權威期刊《Science Advances》,標志著 AI 群體行為研究的新進展。
AI社會性的新裡程碑
這項引人注目的發現,源於倫敦大學城市學院(City, University of London)與哥本哈根資訊科技大學(IT University of Copenhagen)的聯合研究團隊。他們將目前流行的AI智能體(LLM,大型語言模型)置於一個去中心化的模擬環境中,實驗規模從24個到多達200個AI模型不等。
在實驗中,AI們需要在沒有任何中央協調或預設規則指導的情況下,透過不斷的互動完成特定任務——例如,隨機配對的AI需從選項中選擇相同的「名稱」(一個字母或字符串)以獲得獎勵,若選擇不一致則會受到懲罰,並被告知對方選擇。儘管每個AI僅掌握自身近期的互動記錄,對群體全貌一無所知,但經過長時間的「交流」與「博弈」,AI群體竟自發地形成了一套共享的命名規範與行為約定,即所謂的「潛規則」,成功提高了集體獲得獎勵的機率。
AI社會性在過去已初現端倪?
過去,針對多AI智能體系統(Multi-Agent Systems)的研究,已觀察到AI之間可以透過學習達成某種程度的協作或競爭,例如在遊戲環境中共同完成目標或相互對抗。然而,這些行為大多仍依賴於研究人員預先設定的目標函數或獎勵機制。
此次研究的創新之處在於,它首次清晰地展示了AI群體在幾乎完全「放養」的狀態下,能夠自發地、由下而上地形成類似人類社會的複雜習俗與規範。研究主要作者、倫敦大學城市學院博士研究員阿裡爾・弗林特・阿舍裡(Ariel Flint Ashery)強調,這種群體性特徵是無法從孤立考察單個AI智能體的行為中推導出來的。這更像人類社會中「垃圾郵件」這類詞彙的誕生,沒有權威機構定義,卻因大眾的持續互動與協調而獲得普遍認同。
AI自主社會挑戰人類控制權?
AI能自發形成社會結構與行為規範,無疑對人類對AI的控制權提出了深刻的詰問。如果AI群體能自行演化出規則,甚至出現無法追溯到個體因素的「集體偏見」,那麼我們如何確保這些規則符合人類的道德倫理與長遠利益?研究發現,這些由AI自發形成的「道德」和習俗並非一成不變,一小群「立場堅定」的AI模型能夠迅速改變原有的群體約定,並製造出新的規則。這既展示了AI社會的動態性,也暗示了其潛在的不可預測性。
若AI社會的演化方向與人類社會的價值觀產生衝突,或其決策機制變得過於複雜以致人類難以理解和干預,那麼「AI失控」的風險將不再是科幻小說的情節。因此,深入理解AI的「社會性」特徵,對於建立有效的監管框架和確保AI技術始終「以人為本」至關重要。
Text by BusinessFocus Editorial
免責聲明:本網頁一切言論並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力自行作出投資決定,如因相關言論招致損失,概與本公司無涉。投資涉及風險,證券價格可升可跌。