探求真理 發展學術 服務社會
        歡迎訪問深圳市社會科學網 今天是

        學術研究

        【“三大體系”建設】構建和諧共生的人工智能倫理關系

         日期:2023-06-15   來源:中國社會科學網

          作為人類科技史上的重要變革,人工智能已經全面滲透于生產、交通、金融、醫療、教育、傳媒等領域,并在很多領域接近甚至超越人的能力。人工智能的高速率發展顯現出人機關系的新圖景,也引起人類對人工智能倫理的追問,比如:如何面對隱私和數據泄露問題?技術失控或誤用之下如何來界定人與機器的責任?機器人有可能超越和取代人類嗎?人工智能會不會對人類倫理道德根基造成威脅?人工智能倫理問題的追問在一定程度上折射出人類對于人與人工智能倫理關系的焦慮。提早考慮和統籌布局,妥善處理人類與人工智能的關系,讓技術造福人類,是當下人工智能倫理研究的重要議題。

          一、明確人工智能倫理關系中人類的主體地位,把維護人類共同利益放在第一位

          人不能迷失于人工智能的幻像之中,而應堅持人在人工智能倫理關系中的主導地位。于人類而言,人工智能是人類的創制物,只是一個輔助工具。合理、規范地利用技術服務于人類共同的福祉和利益是人工智能發展的最高倫理規范。唯有把人工智能的發展提高到人類整體發展的高度來認識,從研發、使用、治理著手,才有利于構建和諧的人機關系,維護人類共同利益。

          人工智能的設計研發應恪守人類基本倫理道德。人工智能的研發要與人類的尊嚴、發展和自由相契合,把維護人類共同利益放在第一位。倡導技術的包容性與平等性,避免數字鴻溝和算法歧視,讓人工智能技術惠及更多人。特別需要強調的是,對于關乎國計民生的人工智能產品研發,需要聘請專家進行倫理審查,綜合評估產品的倫理影響,糾正負面影響并提出修正措施。

          人工智能的使用應遵循安全原則。在使用人工智能時,以“安全可控”為標準,以“不得傷害人類”為限度,以“善用”為關鍵。在具體的操作過程中,人工智能產品的生產方要明確細化自身責任,同時對用戶行使告知義務,保證利益相關者充分的知情權,最大限度防止濫用和誤用,預防和減少數據泄露,保護個人的隱私。

          人工智能的治理需要有關各方統籌協作。人工智能的治理是一個系統工程,不可能僅靠某個領域、某個城市或者某個部門、企業單個力量能夠達成的。在國內,需要政府主管部門及人工智能領域的學者、企業、用戶等通力合作,開展戰略設計,確保人工智能始終向著有益于全社會的方向發展。在國際上,有關各國應克服政治分歧、技術壁壘、貿易爭端等矛盾,尋找共同的價值基礎,協同應對人工智能帶來的風險和挑戰,構建規范有序、公平公正、安全健康的國際智能產業發展新秩序,保證人工智能的發展能夠造福全人類。

          二、探索為人工智能植入價值觀,使其具備優良的“倫理品質”

          人類之所以前所未有地關注人工智能倫理問題,關鍵在于人工智能能夠模仿人的智能和行為,并代人作出決策,具有某種“擬主體性”的性質。這就要求,在人機關系中,人工智能與人類在價值觀上必須一致。也就是說,要將人類價值觀植入人工智能之中,使其具有人類的價值審度和道德決策能力,以增強人工智能決策的可靠性和安全性。

          道德算法的置入是當前產業界、學術界討論最多的路徑。采用數學模型描述和計算人類倫理道德規范,通過代碼轉化將人的倫理道德“自上而下”地變成程序化的機器處理。同時,人工智能也可以通過不斷的自我學習和深入的人機交流,更有效地理解人的道德思維方式,“自下而上”地生成普遍的倫理原則。如此一來,人工智能就可以基于不同情境,通過自身強大的計算能力,作出價值判斷,進而作出決策、采取行動。

          當然,探索為人工智能植入人類價值觀,是一項復雜的工程,依然面臨許多難題,例如:用數學模型來表達和定義倫理范疇尚顯片面和偏頗;人工智能倫理上的因果關系難題尚未解決;人工智能倫理決策的簡單化和倫理盲點問題將不可避免地發生等等??陀^地講,將人類倫理變成程序化的機器倫理是一個世界性的科學難題,不是一蹴而就的,需要技術、哲學、法學等領域的專家學者深度交流,跨學科合作。

          三、重視人工智能法律制度建設,促進倫理規范發揮效力

          較之人工智能的發展,相關法律制度的回應略顯緩慢和滯后,這在一定程度上存在制度性風險,引發人機沖突。因此,需要構建一個法律制度框架,為人工智能的發展劃定規則邊界,明晰其發展空間,規范其行為方式??梢灶A見,人工智能在未來將大放異彩。人工智能越發展,社會風險也越大,人類也越焦慮,也就越需要法律制度的約束。

          推進人工智能立法工作。首先,要提升立法的前瞻性和先進性。人工智能的快速發展迭代決定了相關法律法規難以趕上技術發展的步伐。因此,要充分考慮產業的長遠發展趨勢,針對人工智能可能帶來的倫理風險進行立法,明確責任劃分依據和標準,從而保證利益相關者的權利。其次,相關立法要兼顧安全性與發展性。在進行人工智能立法時,不僅要回應社會對安全問題的焦慮,還應考慮產業和技術的發展,在安全與發展之間尋求平衡點。再次,加強人工智能立法的國際合作。隨著全球化的推進,生產要素在全球范圍內流動,風險也隨之蔓延至全球。人工智能帶來的隱私安全、專利侵權、跨國犯罪、軍備競賽等問題,僅靠一國之力已無法有效解決,需要在全球治理框架下進行討論。

          加強人工智能倫理制度建設。隨著人工智能的發展,安全、公平、隱私、責任、透明等已成為廣為接受的倫理原則。更為關鍵的是,要讓這些倫理原則切實有效地發揮作用,必須將其轉化為具體的制度體制。具體表現在:制定嚴格的人工智能研發倫理標準,規范限制從業人員的行為,防范人工智能潛在的負面影響;樹立風險防范意識,建立人工智能風險預警機制,全程監測人工智能創制和使用,及時搜集風險信息,然后根據對這些信息的判斷做出預警和處理,防患于未然,最大限度減少損失;建立事后評估制度,加強對應用程序檢測和審查,做到每個環節都有據可查,堵住人為的惡意代碼置入和算法偏見,確保技術安全性。

          【本文系山東省社科規劃研究項目“智能傳播時代高校網絡意識形態安全風險精準防控研究”(項目編號:22CSZJ22)階段性研究成果】 

          (作者單位:山東建筑大學馬克思主義學院)