探求真理 發(fā)展學(xué)術(shù) 服務(wù)社會(huì)
        歡迎訪問深圳市社會(huì)科學(xué)網(wǎng) 今天是

        學(xué)術(shù)研究

        發(fā)展負(fù)責(zé)任的人工智能

         日期:2021-06-29   來源:中國社會(huì)科學(xué)網(wǎng)

          經(jīng)過三次發(fā)展浪潮,人工智能已滲透到人類生產(chǎn)、生活的方方面面,在制造業(yè)、交通、教育、醫(yī)療、家居、金融等領(lǐng)域得到廣泛應(yīng)用。人工智能的發(fā)展及應(yīng)用帶來了諸多益處,但也引發(fā)了諸多問題。比如,安全、失業(yè)、隱私侵犯、算法歧視等。面對(duì)可能存在的風(fēng)險(xiǎn),“負(fù)責(zé)任”成為人工智能發(fā)展的必然要求。2019年6月,中國國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,明確將“負(fù)責(zé)任”作為人工智能治理的重要原則。從目前國內(nèi)和國際范圍內(nèi)發(fā)布的關(guān)于人工智能的文件、規(guī)范及相關(guān)領(lǐng)域的理論和實(shí)踐研究來看,發(fā)展負(fù)責(zé)任的人工智能已成為廣泛共識(shí)。負(fù)責(zé)任的人工智能面臨兩個(gè)現(xiàn)實(shí)性難題:誰來負(fù)責(zé)?如何負(fù)責(zé)?第一個(gè)問題是關(guān)于責(zé)任主體的確定,即人工智能產(chǎn)生的責(zé)任由誰來承擔(dān);第二個(gè)問題指向發(fā)展負(fù)責(zé)任人工智能的途徑,即責(zé)任主體如何盡責(zé)。

          人工智能的責(zé)任問題

          在人工智能的多個(gè)應(yīng)用領(lǐng)域,目前都已產(chǎn)生了實(shí)際的責(zé)任問題。比如,在自動(dòng)駕駛領(lǐng)域,已發(fā)生過多起由人工智能導(dǎo)致的交通事故。2018年3月,美國亞利桑那州發(fā)生了一起優(yōu)步自動(dòng)駕駛汽車引發(fā)的車禍,導(dǎo)致一名路人死亡。在事后的調(diào)查和報(bào)道中,關(guān)于責(zé)任認(rèn)定存在一定爭議。有報(bào)道提出,該起事故應(yīng)歸責(zé)于軟件缺陷,也有報(bào)道認(rèn)為是行人的責(zé)任而非車輛的責(zé)任。這個(gè)案例引出的問題是:自動(dòng)駕駛領(lǐng)域中交通事故的責(zé)任該由誰負(fù)責(zé)?是通過自動(dòng)駕駛法案的政府、自動(dòng)駕駛程序編程人員、汽車制造公司,還是優(yōu)步、用戶、行人?

          再比如,在醫(yī)療領(lǐng)域,也存在著人工智能應(yīng)用帶來的責(zé)任問題。德國康斯坦茨大學(xué)學(xué)者賈布里(Sarah Jabri)曾在研究中介紹過一個(gè)相關(guān)案例:光學(xué)相干斷層成像(Optical Coherence Tomography,OCT)技術(shù)可以實(shí)現(xiàn)視網(wǎng)膜等眼組織的活體三維高分辨成像,用于視網(wǎng)膜病變等眼部疾病的診斷和治療。在臨床實(shí)踐中,很少有專家能夠?qū)CT進(jìn)行正確評(píng)估,因此經(jīng)常造成治療的延遲。針對(duì)這種狀況,人工智能專家開發(fā)了一種利用計(jì)算機(jī)輔助診斷的深度學(xué)習(xí)算法,能夠評(píng)估OCT所做的診斷,并根據(jù)治療的緊急程度對(duì)患者進(jìn)行分類,以減少重癥患者的等待時(shí)間。測試表明該人工智能技術(shù)已達(dá)到甚至超過人類專家的表現(xiàn),并顯示出臨床適用性。在這個(gè)案例中,當(dāng)人工智能被用于患者優(yōu)先治療順序的確定與實(shí)際診斷,并會(huì)影響甚至決定治療的成功與否時(shí),相應(yīng)的倫理以及責(zé)任問題就產(chǎn)生了。醫(yī)生應(yīng)在多大程度上依賴人工智能技術(shù)?由此產(chǎn)生的診斷失誤、醫(yī)療事故應(yīng)由誰負(fù)責(zé)?是監(jiān)管主體、研發(fā)人員還是臨床醫(yī)師?

          傳統(tǒng)的交通駕駛領(lǐng)域有一整套關(guān)于責(zé)任認(rèn)定和劃分的規(guī)則;在傳統(tǒng)醫(yī)療領(lǐng)域,主要關(guān)系是醫(yī)生與患者的關(guān)系,其責(zé)任也相對(duì)容易界定。但是從以上兩個(gè)案例可以看出,由于人工智能因素的介入,責(zé)任主體的界定以及責(zé)任主體應(yīng)如何負(fù)責(zé)變得更為復(fù)雜。

           誰來負(fù)責(zé)

          需要明確的是,人工智能在當(dāng)前的發(fā)展水平下還不能作為責(zé)任主體。盡管目前關(guān)于人工智能是否具有主體地位仍存在爭論,但現(xiàn)在的人工智能作為技術(shù)人工物,本質(zhì)上仍是人類為了達(dá)成某種目標(biāo)而制造的工具。人工智能基于數(shù)據(jù)和算法形成判斷并作出選擇,具有自動(dòng)性但不具有自主性,具有行動(dòng)能力但不具有行動(dòng)意識(shí)、思維能力,因此無法成為責(zé)任主體。

          因此,當(dāng)討論人工智能的責(zé)任問題時(shí),實(shí)質(zhì)上討論的是人類的責(zé)任。在全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)秘書處2021年1月發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南—人工智能倫理安全風(fēng)險(xiǎn)防范指引》中,提出了四大責(zé)任主體:研究開發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者及用戶。在《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》中,提出了共擔(dān)責(zé)任的原則,涉及“研發(fā)者、使用者和受用者”幾個(gè)主體。盡管不同文件中所界定的責(zé)任主體不完全相同,但可以明確的是,人工智能的責(zé)任主體不是某個(gè)單一群體,而是多元行為主體。

          由于太多行為主體參與到人工智能技術(shù)的研發(fā)、制造與使用中,可能會(huì)導(dǎo)致具體責(zé)任難以認(rèn)定及責(zé)任主體相互推諉的問題。如荷蘭馬斯特里赫特大學(xué)學(xué)者韋爾伯斯(Katinka Waelbers)所言,“自然科學(xué)家經(jīng)常聲稱他們只是開發(fā)知識(shí),實(shí)際應(yīng)用不在他們的責(zé)任范圍之內(nèi)。工程師和工程公司認(rèn)為他們的設(shè)備沒有問題,并以此來推卸責(zé)任。在他們看來,技術(shù)的使用(或?yàn)E用)才是問題的根源。而用戶則傾向于聲稱自己缺乏能力:一個(gè)普通消費(fèi)者怎么會(huì)知道技術(shù)的影響呢?即使有了知識(shí),個(gè)人還能做些什么?他們經(jīng)常指出政府應(yīng)該承擔(dān)責(zé)任。然而,西方政府機(jī)構(gòu)的行動(dòng)往往落后于技術(shù)的發(fā)展”。在人工智能責(zé)任問題上存在的這種困境,會(huì)引出發(fā)展負(fù)責(zé)任的人工智能所要回答的第二個(gè)問題:如何負(fù)責(zé)?

          如何負(fù)責(zé)

          要解決如何負(fù)責(zé)的問題,各個(gè)責(zé)任主體需明確并承擔(dān)起相應(yīng)責(zé)任。綜合考慮上文各文件中關(guān)于責(zé)任主體的界定,可以將責(zé)任主體劃分為監(jiān)管者、研發(fā)者、生產(chǎn)制造者和使用者。

          監(jiān)管者。這類主體主要指政府部門,也包括參與人工智能監(jiān)管的非政府機(jī)構(gòu)、組織和團(tuán)體。從目前世界范圍來看,各主要國家的政府機(jī)構(gòu)都相繼發(fā)布了人工智能發(fā)展報(bào)告綱要,制定了相應(yīng)國家政策和發(fā)展戰(zhàn)略,對(duì)人工智能發(fā)展進(jìn)行了倫理監(jiān)管。在我國,國務(wù)院于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,國家標(biāo)準(zhǔn)化管理委員會(huì)、中央網(wǎng)信辦、國家發(fā)展改革委、科技部、工業(yè)和信息化部五部門于2020年7月聯(lián)合印發(fā)了《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,為人工智能重點(diǎn)發(fā)展方向、技術(shù)研究標(biāo)準(zhǔn)體系建設(shè)進(jìn)行頂層設(shè)計(jì),提供指導(dǎo)方案。人工智能處于飛速發(fā)展之中,政府及相關(guān)組織團(tuán)體需要準(zhǔn)確把握人工智能發(fā)展大勢,為人工智能發(fā)展制定更具前瞻性的標(biāo)準(zhǔn)體系、管理規(guī)范,持續(xù)跟進(jìn)領(lǐng)域內(nèi)最新動(dòng)態(tài),并對(duì)研發(fā)、制造、使用等環(huán)節(jié)進(jìn)行監(jiān)測和管理。

          研發(fā)者。這類主體是指從事人工智能理論創(chuàng)新和技術(shù)研發(fā)的組織或個(gè)人。人工智能所要遵循的倫理原則、價(jià)值與標(biāo)準(zhǔn)需要在研發(fā)環(huán)節(jié)置入。由于人工智能的行為及功能由算法決定,研發(fā)主體需要充分考慮其研發(fā)成果可能導(dǎo)致的風(fēng)險(xiǎn),明確人工智能需要遵循的人類價(jià)值觀和倫理規(guī)則,如公平、安全、透明與多樣性等。其中透明原則是發(fā)展“負(fù)責(zé)任”人工智能的基本要求。因?yàn)椋凇昂谙洹鼻闆r下,主體很難承擔(dān)責(zé)任。另外,人工智能技術(shù)不是獨(dú)立于社會(huì)而存在的,研發(fā)主體需要考慮人工智能發(fā)展的社會(huì)文化環(huán)境,并考慮價(jià)值設(shè)置的優(yōu)先等級(jí),如我國在人工智能發(fā)展中要求重視集體利益、社會(huì)穩(wěn)定等。

          生產(chǎn)制造者。這類主體是指從事人工智能產(chǎn)品生產(chǎn)制造的組織或個(gè)人。國家標(biāo)準(zhǔn)化管理委員會(huì)發(fā)布的《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》將人工智能產(chǎn)品界定為“人工智能領(lǐng)域的技術(shù)成果集成化、產(chǎn)品化”,并將人工智能產(chǎn)品分為智能機(jī)器人、智能運(yùn)載工具、智能終端、自然語言處理、計(jì)算機(jī)視覺等類型。在這些人工智能產(chǎn)品的生產(chǎn)中,生產(chǎn)主體應(yīng)嚴(yán)格遵守人工智能領(lǐng)域的法規(guī)和行業(yè)標(biāo)準(zhǔn),確保所制造的產(chǎn)品符合社會(huì)及人類利益;充分評(píng)估產(chǎn)品使用中可能存在的風(fēng)險(xiǎn),并設(shè)置相應(yīng)的應(yīng)急機(jī)制;保證產(chǎn)品的可解釋性和可說明性,并為使用者提供關(guān)于產(chǎn)品功能、使用方式及風(fēng)險(xiǎn)應(yīng)對(duì)等方面的明確信息。

          使用者。這類主體是指在各種情況下使用人工智能技術(shù)產(chǎn)品的組織或個(gè)人。使用主體應(yīng)具備使用人工智能所要求的基本知識(shí)和能力,能夠正確、規(guī)范使用技術(shù)產(chǎn)品,且不能利用人工智能實(shí)施任何有害他人及社會(huì)的行為。為了使用主體更好地承擔(dān)其主體責(zé)任,需要普及人工智能基礎(chǔ)知識(shí)教育。這既是使用主體承擔(dān)責(zé)任的基本要求,也符合其他倫理原則(如公平、反歧視等)的要求。

          以上對(duì)責(zé)任主體及各主體所要承擔(dān)責(zé)任進(jìn)行了概要分析。在具體實(shí)踐中,需要在人工智能發(fā)展的總體框架及基本原則的指導(dǎo)下,根據(jù)不同領(lǐng)域內(nèi)人工智能的發(fā)展階段、應(yīng)用場景、使用特征等分門別類地進(jìn)行更細(xì)化的討論和研究。比如,在自動(dòng)駕駛領(lǐng)域,相關(guān)研究指出汽車廠商應(yīng)是主要責(zé)任方;在醫(yī)療領(lǐng)域,除了上文提到的各主體,還涉及醫(yī)療機(jī)構(gòu)中的專業(yè)評(píng)估組織等。

          發(fā)展負(fù)責(zé)任的人工智能,需要構(gòu)建相應(yīng)倫理治理原則。但我們不能僅停留在對(duì)原則、規(guī)范的探討層面,還需要各個(gè)責(zé)任主體的合作和參與。只有各方形成合力,負(fù)責(zé)任的人工智能才有實(shí)現(xiàn)的可能。

          (本文系國家社科基金重大項(xiàng)目“人工智能倫理風(fēng)險(xiǎn)防范研究”(20&ZD041)階段性成果)

          (作者單位:同濟(jì)大學(xué)馬克思主義學(xué)院)