download BusinessFocus app
【人工智能】Google讓兩個AI一起玩遊戲,測試AI會選擇合作或互相攻擊

【人工智能】Google讓兩個AI一起玩遊戲,測試AI會選擇合作或互相攻擊

Tech
By cherry.liu on 15 Feb 2017

人工智能已是未來一大科技趨勢。它們的工作能力已經不成疑問,但相關的倫理問題仍然是一大爭議。當中一個爭議就是圍繞著AI與AI之間如何相處。為了解答這個問題,Google AI部門DeepMind就進行了一個實驗,設下一些兩難情景,讓AI自行決定該如何處理這些情況。

Kickstarter Photo from Kickstarter

其中一個情況就是著名的囚徒困境(Prisoner's dilemma)。這個兩難情況大致上讓兩方決定是否出賣對方,以換取利益。如果雙方都選擇出賣對方,就會雙雙輸掉這個局面。DeepMind撰文指,研究團隊更讓AI玩了數款簡單的電腦遊戲,以測試AI在不同情況下的自主選擇。

第一款遊戲名為「Gathering」,兩名玩家需要從場景中間收集蘋果,然後在過程中以激光射擊對方。擊中就能暫時把對方從遊戲中移除,讓自己收集更多的蘋果。

第二款遊戲就名為「Wolfpack」,兩名玩家需要在一個充滿障礙物的場景中追捕一個第三者,成功捕捉則能得分。得分的不只是成功捕捉的那一個玩家,而是目標的所有玩家都能得分。

團隊從這兩款遊戲中發現,AI雖然改變了他們的原有行為,但一般會因應情況而改變。在Gathering的例子中,當場景出現大量蘋果時,AI不會攻擊對方,但當蘋果數量變少時,就會出現互相攻擊。更有趣的是,當人員在遊戲中放進了一個運算較複雜的AI時,該AI則會無視場上蘋果數量,偏向攻擊其他對手。換言之,較聰明的AI在這遊戲中一般比較傾向攻擊其他AI。

雖然比較聰明的AI容易攻擊其他AI, 但這不代表較聰明的AI就一定傾向使用暴力行為作解決問題的手法。研究人員稱,較聰明的AI選擇攻擊對手很可能是因為攻擊這獨立行為需要更多的電腦運算。除非AI知道攻擊對手比鬥快收集更有效,否則都會選擇與其它AI合作。在Wolfpack遊戲中,比較聰明的AI則選擇與其他玩家合作,而原因亦是因為與其他玩家合作需要更多的電腦運算。

Getty Photo from Getty

不過,AI的行為變化終究因為遊戲規則而定。如果遊戲會獎勵攻擊性行為,AI就會較常攻擊對方,反之亦然。實驗結果顯示出,訂立處事規則對於未來發展AI是十分重要的。如果規則訂立不當,就會影響AI在處理事情上的取向。

有關研究論文現已發表

資料來源:Google DeepMind

 

 

🏆 立即報名「中小企卓越成就獎2024」

【了解更多最快最新的財經、商業及創科資訊】

👉🏻 追蹤 WhatsApp 頻道 BusinessFocus

👉🏻 下載 BusinessFocus APP

👉🏻 立即Follow Instagram businessfocus.io

最新 金融投資熱話專頁 MarketFocus