讓科技倫理建設(shè)為人工智能健康發(fā)展護航
【聚焦科技倫理】
◎陳小平
當(dāng)前,加強人工智能領(lǐng)域科技倫理建設(shè)的必要性、緊迫性和原則規(guī)范已成共識。前不久,《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》)的正式發(fā)布,標志著我國科技倫理建設(shè)全面進入治理階段,對于推動我國人工智能等領(lǐng)域的健康發(fā)展和負責(zé)任創(chuàng)新具有重要的現(xiàn)實意義。
現(xiàn)階段人工智能倫理審查面臨諸多挑戰(zhàn)
現(xiàn)階段人工智能科技活動倫理審查工作重點和突出難點可歸納為以下幾個方面。
一是正確判斷科技活動是否屬于倫理審查范圍?!秾彶檗k法》第二條明確規(guī)定了科技活動的審查范圍,從內(nèi)容上看主要考慮的是受試者的合法權(quán)益以及科技活動可能對生命、生態(tài)、公共秩序、社會發(fā)展等造成的倫理風(fēng)險。該文件是科技倫理審查的通用性規(guī)定,尚未對每一項具體科技活動是否屬于審查范圍作出規(guī)定。因此,科技活動承擔(dān)單位的科技倫理審查委員會(可能還有承擔(dān)專家復(fù)核的機構(gòu))需要結(jié)合實際情況,細化本單位的科技倫理審查范圍,同時根據(jù)《審查辦法》第九條制定科技倫理風(fēng)險評估辦法,指導(dǎo)科研人員開展科技倫理風(fēng)險評估,按要求申請倫理審查。目前,雖然我國人工智能學(xué)界、業(yè)界和管理機構(gòu)對倫理風(fēng)險的認識正在提升,但風(fēng)險判斷能力和水平滯后于認識程度的提升,如何作出正確判斷將是一項新挑戰(zhàn)。
二是恰當(dāng)把握審查內(nèi)容和審查尺度?!秾彶檗k法》第十五條對科技倫理審查內(nèi)容作出了明確的規(guī)定,特別對涉及個人隱私數(shù)據(jù)等的科技活動提出了要求,與個人信息保護法、數(shù)據(jù)安全法等進行了很好的銜接。但在實際工作中,還需要制定可操作的審查細則。此外,《審查辦法》提出,地方、相關(guān)行業(yè)主管部門或科技類社會團體可以制定或修訂本地方、本系統(tǒng)、本領(lǐng)域的科技倫理審查細則、具體規(guī)范和指南。今年2月,國家衛(wèi)健委、教育部、科技部等制定了《涉及人的生命科學(xué)和醫(yī)學(xué)研究倫理審查辦法》,對生命科學(xué)和醫(yī)學(xué)領(lǐng)域的研究作了更詳細的規(guī)定,而人工智能領(lǐng)域尚缺少更具體的規(guī)定,因此人工智能倫理審查實施細則的制定應(yīng)是下一步重點工作之一,并且要在審查實踐中逐步完善。在實施細則的設(shè)置中,如何恰當(dāng)把握審查尺度將面臨挑戰(zhàn),容易出現(xiàn)尺度過松或過嚴的現(xiàn)象,進而對后續(xù)的倫理審查產(chǎn)生系統(tǒng)性影響。如果尺度過松,有可能導(dǎo)致一些存在倫理風(fēng)險的科技活動倫理審查不全面,從而留下倫理風(fēng)險隱患;如果尺度過嚴,可能妨礙科技活動的正常推進,降低國家科技進步和經(jīng)濟、社會發(fā)展的速度。
三是加強科技倫理風(fēng)險預(yù)警與跟蹤研判。《審查辦法》規(guī)定,對可能產(chǎn)生較大倫理風(fēng)險挑戰(zhàn)的新興科技活動實施清單管理。清單的制定涉及對倫理風(fēng)險的預(yù)測,這種預(yù)測往往是非常困難的,對人工智能長期社會效應(yīng)的分析、預(yù)測尤其困難。因此,清單的滯后性將持續(xù)存在。尤其需要警覺的是,某些倫理后果無法通過事后治理加以消除,或事后治理的代價過大。因此,清單的動態(tài)調(diào)整機制尤為重要。在對較高風(fēng)險的科技活動的倫理風(fēng)險防控上,要堅持《關(guān)于加強科技倫理治理的意見》提出的敏捷治理要求,加強科技倫理風(fēng)險預(yù)警與跟蹤研判,及時動態(tài)調(diào)整治理方式和倫理規(guī)范,快速靈活應(yīng)對科技創(chuàng)新帶來的倫理挑戰(zhàn)。
多措并舉推動人工智能倫理審查落到實處
人工智能領(lǐng)域的倫理審查是一項新事物,要求科技活動的承擔(dān)者、倫理委員會委員和工作人員、參與復(fù)核的專家和其他工作人員等參與《審查辦法》實施的人員認真學(xué)習(xí)、深刻理解《審查辦法》及其他相關(guān)政策規(guī)定,掌握背景知識,不斷在實踐中提高倫理審查的能力。
首先,要提高參與《審查辦法》實施的人員對人工智能的認識水平。當(dāng)前,人們對于人工智能的認識仍存在不少誤區(qū),不少人錯誤地認為人工智能與人類智能是本質(zhì)相同的,只是程度不同而已,為此認為對人的管理、教育方法也適用于人工智能。這種誤解、誤判會嚴重地干擾人工智能治理?!叭斯ぶ悄苤浮丙溈ㄥa等人首次使用了“人工智能”一詞,并明確指出,“AI的大部分工作是研究世界對智能提出的問題,而不是研究人或動物。AI研究者可以使用人沒有或人不能使用的方法,即使這些方法主要涉及計算”。由此可見,在人工智能倫理審查中務(wù)必根據(jù)數(shù)據(jù)、模型、算法、平臺等AI技術(shù)要素的實際特性,作出客觀的判斷,而不能混淆人工智能與人類智能。
其次,根據(jù)倫理審查的人才現(xiàn)狀和工作需要,亟須加強科技倫理審查人才隊伍的培養(yǎng),以滿足現(xiàn)階段的迫切需要。要從更長期的需要出發(fā),加大力度,通過學(xué)校教育、進修培訓(xùn)等方式,培養(yǎng)一大批科技倫理治理的專業(yè)人才。
再次,落實《審查辦法》必須從全局觀點出發(fā),清單管理是重中之重,應(yīng)根據(jù)人工智能研究和應(yīng)用的發(fā)展情況和治理需要,對清單進行及時調(diào)整,并就調(diào)整內(nèi)容及時發(fā)布相關(guān)說明和實施指導(dǎo)。另外,有條件的地區(qū)、行業(yè)和單位,應(yīng)加快啟動倫理審查工作,及時總結(jié)經(jīng)驗教訓(xùn),發(fā)揮示范和引領(lǐng)作用。還需加強《審查辦法》實施過程中相關(guān)經(jīng)驗的信息共享,以提高全國范圍內(nèi)倫理審查的效率和效能。
最后,針對滯后性挑戰(zhàn)和人工智能的特點,建議開設(shè)一個新的研究方向——人工智能可控性研究。以往的研究主要針對工程可靠性,而對人工智能來說,這是遠遠不夠的,有必要從基礎(chǔ)理論、模型、算法、數(shù)據(jù)、平臺等各個角度,對人工智能的可控性展開全面研究。同時,需要積極探索人工智能在相關(guān)領(lǐng)域的倫理效應(yīng)和潛在風(fēng)險,增強我國對人工智能等科技活動的風(fēng)險預(yù)測和防范能力。
(作者系中國人工智能學(xué)會人工智能倫理與治理工委會主任)
來源:科技日報
版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。
- 抓住人工智能“牛鼻子” 加快形成新質(zhì)生產(chǎn)力
- 收費調(diào)解專業(yè)高效為當(dāng)事人節(jié)省解紛成本
- 朝陽交易分團攜300余家企業(yè)“進”博交友
- “農(nóng)業(yè)中關(guān)村”力爭三年達世界領(lǐng)先水平
- 更換新牌匾 大柵欄鐵樹斜街風(fēng)貌煥新
- 風(fēng)光大基地建設(shè)推動綠色增長
- 消費市場活躍度增強
- “新農(nóng)人”返鄉(xiāng)挑起“金扁擔(dān)”
- 國家大劇院版《阿依達》震撼歸來
- 北京首個區(qū)校合作創(chuàng)新區(qū)落戶朝陽 北工大山河灣谷創(chuàng)新區(qū)啟動建設(shè)