探求真理 發展學術 服務社會
        歡迎訪問深圳市社會科學網 今天是

        學術研究

        社會科學提升算法決策公平性

         日期:2023-09-12   來源:中國社會科學網-中國社會科學報

           中國社會科學報綜合外媒報道由英國倫敦政治經濟學院創辦的“影響博客”近日發布消息稱,政府部門和商業機構逐漸使用算法決策輔助辦公室工作,公眾也開始關心算法決策是否會加重社會不公平這一道德問題。德國慕尼黑大學統計與數據科學系教授、美國馬里蘭大學社會數據科學中心聯合主任弗勞克·克魯特(Frauke Kreuter)等人表示,當前大部分有關算法決策的倫理研究都出自計算機學科。社會科學的競爭優勢之一就是揭示社會不平等問題的根源及其影響,社會科學家還掌握著廣泛的社會事務專業知識和評估社會影響的調研方法,因此有必要讓社會科學家參與對算法決策系統的道德監管。

          克魯特表示,算法決策系統建立在處理歷史數據的模型的預測能力上。數據處理的目標是“學習”以往輸入和輸出之間的關聯,以便在輸出不確定時預測輸入,再根據預測結果來決定行動。作為一個總稱,算法決策包括協助或替代人工決策的各種系統。舉例來說,利用數十年間的刑事記錄訓練算法,可以幫助法官預估再犯風險,再決定是否要保釋嫌疑人。抵押貸款機構可以根據算法預測的違約風險來設定利率。公共社會服務也能依靠算法來制定財政援助政策。

          為了闡明社會科學家如何為人工智能的道德監管貢獻專業知識,克魯特等人將算法決策過程劃分為三個環節:數據基礎、數據準備與分析、實際實施與結果。值得注意的是,技術缺陷或者人為決定都有可能在算法決策系統的各個環節制造歧視、偏見、不公平等負面社會影響。首先,研究人員討論了算法決策系統的數據基礎。算法需要類型合適的高質量數據,才能對個人進行精準預測。社會科學專家在評估測量質量和數據代表性上積累了豐富的經驗,特別是在涉及不同人口群體時。但是,即便是從技術角度看質量很高的數據,它的來源也可能存在問題,尤其是這些數據已經反映出社會上普遍存在的偏見。在這種情況下,社會科學專業知識就能幫助計算機科學家識別和處理此類偏見。

          克魯特等人表示,數據準備與分析環節涉及變量和數值的重新編碼、分組、刪除、轉換等多種影響預測結果公平性的活動。另外,為了避免算法對特定群體造成不成比例的負面影響,開發人員在訓練算法時應當綜合考慮人工智能技術的社會背景和公眾認可度等因素,謹慎界定“公平”的概念。在社會科學家看來,社會語境知識和數據收集方法,例如焦點小組、定性訪談和定量調查,能夠為上述問題提供有效的解決方案。

          最后一個環節則是檢測算法決策的履行效果是否符合道德和倫理。檢查一項決策對個人和社會團體的實際影響,正是社會科學的基本工作之一。克魯特及其同事列舉了三種方法:一是研究算法決策系統如何影響某一群體或整個社會;二是利用模擬技術來預測小規模個體決策組合對社會群體的影響程度;三是比較某一任務所采用的算法決策系統和代替方法(例如無需任何算法輔助的人工決策)在效率和公平性方面的差異。需要指出的是,即便是在社會科學家的介入下,也不應該使用算法來作出永遠不應該由算法單獨作出的決定。

          克魯特等人總結道,開發和執行遵守道德準則的算法決策系統需要社會科學家的積極參與。后者掌握的方法和經驗可以有效辨識量化算法決策系統的社會影響,追溯負面效益的源頭,提高人工智能的公平程度,從而造福各個行業和公共部門。

          (劉雨微/編譯)

          關鍵詞:算法決策;影響;社會科學家;預測;人工智能