
霍金再嗆聲人工智能,稱人類應成立“世界政府”應對機器人起義
時間:2017-03-22
編者按:物理學家霍金重申了他的觀點,人工智能帶來了威脅和可能性。解決這個問題以及其他全球性挑戰的方法,他的建議是成立世界政府。霍金在科學方面造詣很深,但在國際關系和政治哲學方面可能并不精通。世界政府自然是國際關系自由主義理論的一個重要愿景,然而要想在當今現實主義為主的國際關系背景下推動世界政府成立,談何容易。不過,自由主義也好,現實主義也罷,這些都是比較傳統的理論,即使是建構主義也未曾面對人工智能這樣的新環境。或許,當有一天人工智能真的背叛人類的時候,在外力的作用下,人類會摒除嫌隙,建立世界政府。這也許是自然科學對于社會科學的促進和改變吧。以下是正文。
物理學家霍金可能是人工智能的一個支持者,但他也坦言,人工智能創造了一些潛在的挑戰。在最近的一次采訪中,他發出了類似的聲音,并提出了保守派可能難以接受的解決方案。
在周一被授予倫敦城市榮譽自由獎后,霍金教授對《泰晤士報》表達了他對未來的樂觀態度。但是,他補充道,他擔心人工智能及其他全球性的威脅。他的答案則是:采取國際行動,最好是世界政府。
“我們需要更快地識別出這些威脅,然后在它們失去控制前采取行動。”Hawking說道,“這可能就意味著需要某種形式的世界政府。”
但是他警告說,這種做法“可能會導致暴政。”
隨著人工智能在社會中的作用的增加,計算機科學家和政策制定者正在從構建這些系統轉為利用它們的力量為社會帶來利益。盡管觀察者在關于人工智能相關挑戰的性質和范圍有所分歧,但人們普遍認為,這些影響需要解決。世界政府會提供一個解決方案嗎?
“是的,我認為改善全球治理不僅可以應對先進的人工智能技術,對人類所面對的未來的一些其他挑戰來說都可能是必要的。”牛津大學未來人類學院的創始主任Nick Bostrom教授在給《基督教科學箴言報》的電子郵件中寫道,“當我們繼續開發越來越強大的工具時,我不知道我們能否在和地球對抗的情況下一直生存下去。”
今天,人工智能似乎無處不在。它是自動駕駛汽車進步的原因,它支撐著Facebook的廣告篩選過程,它通過虛擬助手與人們互動,像Apple的Siri和Amazon的Alexa。在紐約,它預測火災;在英國,正在安排機器學習讓人們支付他們的債務。Hawking曾指出,最終它甚至可以消除持久的社會挑戰,如疾病和貧困。
但是觀察者提出,這些獨特的機會將帶來獨特的問題。一個問題是,關于當經濟過渡到一個由機器主導的世界里將會變成什么樣。
“有兩個主要的經濟風險:首先,工人的技能和未來工作場所所需要的技能之間可能會出現不匹配;其次,人工智能可能會因增加資產擁有者和一些高級技能工人的回報而加劇經濟的不平等。”普林斯頓大學計算機科學與公共事務教授,信息技術政策中心創始主任Edward Felten在一封電子郵件中告訴《基督教科學箴言報》。
他認為這些問題可以通過采用分配提高生產力的公共政策來解決。
然而Hawking在他的評論中可能在暗指擔心人工智能將變得過于強大,并開始以人類所無法控制的方式行動。但并不是每個人都相信科幻小說中的霸道機器會成為必然:Felten教授說他沒有看到“計算機科學中有任何健全的基礎能斷定機器智能會在任何時候突然加速。”
未來今日研究所的創始人兼首席執行官Amy Webb正在更加認真地看待這些威脅。她向《基督教科學箴言報》解釋道,人工智能的目標之一就是教會機器在“無監督學習”系統中自己建立連接。這意味著對這些人工智能系統做出正確決策的能力給予了很大的信任。她舉了一個在教室里學習數學的學生的類比:
“如果錯誤地教學生一加一等于三,并且繼續教下一組孩子,那么會發生什么?這個錯誤的答案會開始傳播,而其他的決定都是基于這個知識。”
而這個風險要高于數學課的風險,她補充道:“我們將要求它們做出有關個人身份識別、安全性、武器部署及其他的決策。”
Bostrom教授將當今人工智能所面對的問題定義為“可伸縮的控制”:如何確保任意的人工智能技術與程序員的意圖相匹配。”
這些評論員解釋說,有一個很小但是正在增長的研究領域正在解決這些問題——并且世界政府或人工智能的法律的國際協調可能是一種方法。雖然Bostrom說他不希望“全球事務中出現任何迫在眉睫的轉型”,但世界政府可能只是政治聚合的下一個階段。
“我們已經走過了大部分路——從采集獵手,酋邦、城邦、到單一民族國家,到現在的國家和國際機構。”他寫道,“我們還需要一次飛躍。”
Webb女士雖然贊同國際合作是有價值的,但是她懷疑它是否能及時解決眼前的問題。
“如果世界上所有的國家就人工智能的標準和使用達成一致意見,那會很棒。但目前而言,我們在連像氣候變化這樣的問題上都不能達成單方面協議。”她指出。國際政府合作需要時間來追趕人工智能的發展,她說道。
因為人工智能變得越來越無處不在,政府決策也可能受到人類行為的意外變化的影響。技術政策研究所主席兼高級研究員Scott Wallsten在一封電子郵件中寫道。
“基于人工智能的更安全的汽車會讓人們更魯莽地采取行動嗎?比如因為他們相信車會自動停下來而去闖紅燈。”Wallsten博士問道。
考慮到這一點,他提出,本地、國家或國際級別的有效的政策解決方案應該從更多地研究人工智能所帶來的影響開始。
“任何解決措施都需要基于對問題的透徹理解。”他總結道。
相關閱讀:
-
分享本文到:
-
關注隨銳:
微信掃描,獲取最新資訊 -
聯系我們:
如果您有任何問題或建議,
請與我們聯系:
suiruikeji@suirui.com