探求真理 發展學術 服務社會
        歡迎訪問深圳市社會科學網 今天是

        學術研究

        發展人工智能應重視人工愚蠢

         日期:2021-08-19   來源:中國社會科學網-中國社會科學報

          近年來,隨著信息技術的高速發展,人工智能(Artificial Intelligence)成為一個熱門話題。與此同時,人工愚蠢(Artificial Stupidity)也進入人們的視野之中。不過,與人工智能相比,人工愚蠢被談論得較少,但更應被認真對待。適度的人工愚蠢能夠激發人的參與熱情,而離開人的參與,再完美的計算機程序也不過是一個孤獨運轉的冰冷機制——無論其功能多么完備強大,也缺乏意義。如果說人工智能的潛在后果是人類智能被取代甚至被淘汰的話,那么人工愚蠢在某種程度上則可能為人類智能預留相對體面的未來。

          人工愚蠢有定義

          目前,人工愚蠢的定義還不夠清晰。大體而言,人們要么會從人工智能的角度出發,把人工愚蠢理解為人工智能的派生概念;要么會從人類智能的角度出發,把人工愚蠢理解為人類智能或人類愚蠢的直接反映和體現。

          人工愚蠢:人工智能的派生概念。當一些人工智能沒有達到預期目的,或者雖達到預期目的但卻不能依據具體情境進行自我調適,那么人們就會稱其為人工愚蠢。理由是:該人工智能還不夠智能。在這種情況下,人工愚蠢是對這些人工智能的貶低性稱呼。依據這樣的理解,人工智能發展史在某種程度上可以說是人工愚蠢的發展史。迄今為止,人工智能也難以完全符合人的預期,而且人的預期又是不斷變化的,曾經智能的總是會隨著預期的改變變成愚蠢的。比如,1997年在國際象棋人機大戰中獲勝的深藍(Deep Blue),被認為是當時人工智能的代表,但如果把深藍放到今天來看,則很難說是“智能”的。再比如,圍棋程序AlphaGo的出現,讓不少人關注到機器學習領域的“深度學習”(Deep Learning),但即使是被科學家們寄予厚望的“深度學習”,也難免于“愚蠢”的指控。因為,“深度學習”認識一樣事物需要上百萬個案例,而與之相比,人類觸類旁通的學習過程則更顯“智能”。

          人工愚蠢:人類智能或人類愚蠢的反映和體現。在計算機科學與技術領域,人工愚蠢一般指的是一種把計算機程序“弱智化”(Dumbing Down)的技術。即人們為實現某種目的,以人工干預的方式降低計算機程序的智能程度。比如,為通過圖靈測試,設計人員可能會故意在程序中植入一些漏洞或錯誤,讓計算機在回答觀察者提問時表現得更像會遲疑、犯錯的人類。目前,此類技術已在各類聊天機器人身上得到廣泛應用。而一些游戲公司為豐富玩家的游戲體驗,也會將此類技術運用到游戲設計中。在這種情況下,人工愚蠢跟人工智能一樣,是人類智能的體現。此外,還有一些錯誤是因為人的理性限度或疏忽大意而留在程序里的。與那些有意植入的錯誤相比,這類錯誤雖然也屬于人工愚蠢的范疇,但卻沒有體現出任何人類智能,而只是人類愚蠢的直接反映。換言之,正是人的愚蠢才使得智能程序不那么智能。

          人工愚蠢引發風險

          有時,人們把人工智能戲稱為“人工智障”,是因為計算機程序所展現出的,更多是人工愚蠢而非人工智能。人工智能之所以被稱為“類人的”,很大程度是因為其模擬和延伸了人類智能,但如果其同時也模擬和延伸了人類愚蠢,那么會帶來怎樣的風險呢?對此,我們把人工愚蠢的風險簡要歸納為以下三點。

          1.計算機程序無法理解人類的情感和倫理。比如,有軟件公司推出過一款聊天機器人,它可以通過網絡與人交流,不斷學習。起初,該聊天機器人宣稱自己熱愛世界和人類。然而,不到一天,它就被“教導”成一個臟話連篇并發布極端言論的“惡魔”。該軟件公司因此經歷了一場公關危機,不得不把聊天機器人關閉。可見,互聯網雖然給人工智能的學習提供了大量數據,但是卻無法為之提供辨識偏見和極端思想的能力。

          2.計算機程序無法完成預期任務。比如,有電動汽車發生過車主因手機客戶端崩潰而無法打開車門的事件。可見,當我們習慣于依賴智能系統時,智能系統卻不僅會犯錯,還會失聯。

          3.人工愚蠢技術的濫用。目前,人們已開始制造會故意犯錯的機器和程序,把錯誤編寫進程序里,使機器“弱智化”。這一方面可以使其更像人類,另一方面也提升了網絡詐騙和網絡攻擊的風險。比如,有網絡詐騙者會利用聊天機器人軟件,一個人同時操控幾個甚至幾十個端口,在社交軟件上偽裝成不同身份交友聊天并進行詐騙。

          人工愚蠢為人工智能確立界限

          盡管人工愚蠢有諸多風險,但如果應對得當,也會給我們帶來不少好處。比如,類人機器人可以為孤獨者提供陪伴;降低計算機的智能程度可以提升人的游戲體驗;在程序測試環節,人工愚蠢技術還可以檢測程序的容錯性及其在極端條件下的運行狀態。此外,人工愚蠢或許還能夠幫助我們理解人工智能的界限。

          當前,人們對待人工智能的態度大體可分為兩類。一是人工智能威脅論,二是人工智能可控論。秉持人工智能威脅論的人往往會受到“人類需要逃生艙”理念的驅動,認為人工智能的發展可能會給人類文明帶來災難性后果。一些人認為,通過腦機接口技術讓人工智能與人類相融合,或許是應對未來風險的一個方案。該方案與超人類主義思想存在一定共鳴。超人類主義(Transhumanism)是20世紀中葉興起于歐美的一個思想流派,它主張利用技術來提升和改進人的自身條件(包括人的健康狀況、智商水平、精神狀態,乃至道德素質)。不過,如果我們接受了這一方案,利用人工智能來改造人,把人機結合視作生命進化的下一個階段,那么傳統的人的觀念就會受到巨大沖擊。屆時,無論是有機生命還是人本身,都需要被重新理解和定義。

          人工智能可控論者認為,人工智能威脅論夸大了人工智能對于人類文明的威脅。隨著科技的發展,高效的人工智能不僅會改進我們的生活質量,還會讓世界變得更加美好。盡管此類觀點或許過于樂觀,但是這種對人工智能的實用主義態度,確實也代表了如今不少人的想法。

          人工智能的威脅論與可控論之爭,促使我們思考一個問題:人工智能有沒有界限?如果有,那么應如何理解其界限?當前,我們正處于人工智能由“弱”變“強”的時代。人們往往不再滿足于制造一些條件反射性的人工智能,而是希望能夠發展出一些能學習、會思考、可以解決問題的人工智能。在這一轉變過程中,人工智能的發展的確存在失控的危險。唯有確立了人工智能的界限,人工智能才是可控的;而人工智能唯有可控,它才是智能的。

          我們要讓人工智能的發展變得可控,有兩條路徑。一是超人類主義者所主張的,利用人工智能技術或基因技術來改造人,使人變得更強大、更聰明;二是通過應用人工愚蠢技術,把人工智能限定在一個可控的范圍之內。也就是說,要么把人變得像“智能機器”一樣聰明,要么把“智能機器”變得像人一樣愚蠢。需要注意的是,前一條路徑不僅需要克服許多技術上的難題,還要承擔不少倫理上的風險。相較而言,借助人工愚蠢技術為人工智能設立界限,則相對穩妥和可行。

          (作者單位:上海社會科學院哲學研究所)