把握算法的倫理邊界
日期:2021-06-29 來源:中國社會科學網
算法是計算機的核心運行邏輯,是一套基于設計目的的數據處理指令的總和。其主要特征是,通過規范化的輸入,經由算法取得相應的輸出結果。在計算機技術發展早期,算法主要被用來提升計算機軟件的運行效率。隨著互聯網技術尤其是移動互聯網和物聯網的迅速發展,計算機領域的商業模式不再是簡單地出售軟件使用權,而是通過深度介入用戶的工作和生活來獲取利潤。算法的運算對象逐漸由物變成了人,其內在的價值屬性逐漸顯現,對其的倫理規范也變得迫切起來。
1.算法歧視。當人成為算法的運算對象時,算法會把人作為獲取利潤或其他“理性”目的的分析對象,人在這個過程中會被打上標簽“分揀”。比如,根據“用戶畫像”將同類商品和服務差異化定價、對應聘人員的簡歷經過計算機篩選后差異化投遞等。在這個關系中呈現的是用戶的工具化,該歧視源于為提升攫取利潤的效率而造成的人在算法下被物化。算法的歧視有其隱蔽性,因為“算法黑箱”并不會向外界公布,而且即使公布了也并不能讓大多數人看懂。由于提供的服務和商品個性化越來越強,被算法施加影響的不同個體之間,也不容易通過對比發現問題。因此,會出現因手機品牌、歷史購買頻次、居住區域等變量不同的用戶,在購買同樣的服務和商品時顯示的價格不同,甚至通過顯示“售罄”等方式拒絕為特定用戶服務。除消費歧視外,算法的歧視還會識別并加劇社會不公平現象的產生,即使這種不公平的影響可能并不能在當下體現或者被發現。比如,一些美國高校的簡歷篩選系統會自動根據現有生源情況對應試學生分門別類,這會阻礙社會結構向著更加公平的方向變化。還有一點更需要我們警覺:算法并不總是能夠向著其設計者希望的方向運行。隨著機器學習能力的不斷強化,其篩選標準會變得越來越復雜。但不論標準如何,我們都不可能寄希望于機器能夠用人類的價值觀識別并處理數據——這會讓未來深度依賴算法的世界充滿晦暗不明的價值虛無主義。
2.算法控制。互聯網企業,尤其是大型平臺公司的經營邏輯十分重視活躍用戶數量、商品交易總額等數據,這使得提升用戶黏性、獲取用戶數據畫像成為算法設計的重要目標。一是強化已有的社會控制。如辦公信息系統,通過通信軟件和流程管理軟件將員工全天候鏈接在一起,以提升生產效率。現在互聯網平臺公司也在逐步介入公共服務,幫助行政部門提升管理效率。比如,現在常用的防疫相關軟件、公共發布平臺、接入公共費用交納系統等。二是創造新的控制系統。這主要是挖掘人類的自然需求,并用更高的效率放大該需求以產生路徑依賴。比如社交、消費、學習、信息檢索、導航定位、影視及游戲娛樂等。其中甚至不少是用虧損來滿足人們的需求。比如,維持社交軟件的運轉需要較高費用,其設計目的就是培養更大的用戶基數和使用習慣。與行政單位運用明示的法律法規約束人的行為不同,平臺是用效率、依賴和成癮性控制用戶。用戶在大型平臺公司面前處于實質上的權力弱勢地位,從而被深度嵌入產業環節產生一種隱形不自由。關于此類技術的倫理問題的討論,已越發具有重要性和必要性。
3.算法投喂。互聯網信息傳播經歷了門戶網站單向展示階段、用戶主動檢索階段,目前已進入基于算法主動提供個性化信息的階段。哈佛大學法學教授桑斯坦(Cass R. Sunstein)在《網絡共和國》一書中提出,“信息繭房”指人們在信息領域會習慣性地被自己的興趣所引導,從而將自己的生活桎梏于像蠶繭一般的“繭房”中的現象。而當前以“投其所好”為原則的算法,大大提升了“作繭自縛”的效率。人們想象中的多元融合往往沒有出現,反而出現了更多的極化現象。在互聯網發展早期,學界普遍認為信息的高效流動可以照顧到不同群體的個性化偏好,促進多元文明的相互交流。隨著早期互聯網的發展,尤其是門戶媒體和搜索引擎出現后,文化的碰撞一直在朝著互相融合的方向演進。但隨著算法的不斷演進,我們卻發現如今多元主義并沒有在全球蓬勃興起,反而出現了某些更為深刻的社會割裂,而且呈加速趨勢。以往是人們自己主動尋求群體和文化認同,在尋找的過程中會不斷接觸新的信息和價值觀,逐漸呈現為一種開放的價值系統。而現在的算法是主動將人分類并高效率推送趨同的內容,因此“信息繭房”導致極化的速度大大加快了。多元文化需要求同存異的土壤,更多是指可以不斷接受新事物,并從多元化的環境中汲取養分,不斷豐富和發展自身,其內在邏輯應該是復雜的偏好在同一個場域中同時被滿足和照顧。而現在算法的邏輯,是讓不同的用戶在不同的場域分別被滿足。這不是多元化,而是多極化,其最終結果是在文化層面的社會割裂。
生命倫理學家恩格爾哈特(H. Tristram Engelhardt, Jr.)在《生命倫理學的基礎》一書中提出了“道德異鄉人”的概念,指那些持有和我們不同的道德前提的人,他們生活在不同的道德共同體中,在與他們合作時會存在基礎的價值取向沖突,包括但不限于對程序的適用、對善的理解、對正義的分配等,從而會導致對話困難。《倫理學綱要》一書中提出,應通過建立公共理性、完善現代社會性道德(首先是現代性外在倫理秩序),來使現代的內容與現代公共理性的形式相匹配。正因如此,我們需要基于一個能夠讓大多數人都認可的核心價值或公共理性的原則,來劃定算法的倫理邊界。現代文明進步的重要成果,就是打破了不同群體之間的界限,突出了人本身的尊嚴,尊重作為人本身的自主性價值,進而通過文化、經濟、政治等的融合,讓人與人得以互相理解。而算法的倫理邊界,應是促進或至少不能破壞這些成果。
面對算法發展導致的各類現實問題,需要我們在設計算法時嚴守非歧視性、用戶的非物質性、個人選擇權的不可剝奪性這三條原則。非歧視性原則,指不能根據“用戶畫像”的不同實行差別化待遇,這里體現的是平等的價值。用戶的非物質性,意味著算法應尊重用戶作為人的主體性,不能對其簡單地進行“物化”或“數據化”。同時,由于技術的演進,算法對人的控制已開始由工作的特定時間發展為充斥于人的生活的方方面面,更加快速的信息流已在逼近人的生理極限,效率提高的同時也在剝奪人的閑暇時光。科技的發展應給人帶來便利而非控制,算法在設計之初就應盡可能地考慮到主體之間的強弱勢支配關系,不能僅以技術中性為擋箭牌,間接助長“效率之惡”。個人選擇權的不可剝奪性,則是指要保障人自主獲取信息的權利,這是對人類探索精神的尊重和保護。我們不能僅用算法來判斷人們的需求和偏好,精準的“個性化匹配”應有更多的倫理考量。
算法與很多其他科技不同的一點在于,不少科技的產生是基于“發明”這一人類實踐活動的,而算法則是以“設計”作為技術產生的呈現方式。發明是科技適應人的體現,是為了給人帶來更多的便利,補齊或增強僅依靠人的自然屬性難以滿足的需求。這從“懶是科技進步的原動力”這一句廣為流傳的打趣便可以看出,倫理對發明往往是進行后續的回應和規范,不論從規范需求還是規范可能性上來看,都很難做到前置約束。從目前的實踐看來,也只有以人為對象的醫學倫理能夠做到一定程度的前置約束。但設計作為算法的前置性程序,倫理提前介入進行評估是可行的。而且,目前算法設計的核心原則是以人為作用對象,以計算機邏輯為中心。人在設計中來適應技術,需要使用大量的時間和智力來學習、適配計算機。只要技術的作用對象是人,那么倫理的提前介入就是必要的。隨著計算機技術的滲透率不斷上升,人類社會對算法的依賴程度不斷加深是一個難以逆轉的趨勢,這也是“科技樹”不斷向效率更高的方向生長的客觀規律。正因如此,我們應守住科技造福人類這一根本原則,并更加深入研究討論“何為人類之福”這一深刻而又基礎的倫理問題,為算法的狂飆突進戴上韁繩,守住倫理邊界。
(作者單位:中國人民大學倫理學與道德建設研究中心)