導讀:人工智能能夠成為一股“向善”的力量,持續(xù)造福于人類和人類社會,但也帶來了隱私保護、虛假信息、算法歧視、網(wǎng)絡安全等倫理與社會影響,引發(fā)了對新技術如何帶來個人和社會福祉最大化的廣泛討論。
隨著人工智能技術的快速發(fā)展和廣泛應用,智能時代的大幕正在拉開,無處不在的數(shù)據(jù)和算法正在催生一種新型的人工智能驅動的經(jīng)濟和社會形式。人工智能能夠成為一股“向善”的力量,持續(xù)造福于人類和人類社會,但也帶來了隱私保護、虛假信息、算法歧視、網(wǎng)絡安全等倫理與社會影響,引發(fā)了對新技術如何帶來個人和社會福祉最大化的廣泛討論。人工智能倫理開始從幕后走到前臺,成為糾偏和矯正科技行業(yè)狹隘的技術向度和利益局限的重要保障。正如有學者所言,要讓倫理成為人工智能研究與發(fā)展的根本組成部分。
在此背景下,從政府到行業(yè)再到學術界,全球掀起了一股探索制定人工智能倫理原則的熱潮。例如,OECD和G20已采納了首個由各國政府簽署的人工智能原則,成為人工智能治理的首個政府間國際共識,確立了以人為本的發(fā)展理念和敏捷靈活的治理方式。我國新一代人工智能治理原則也緊跟著發(fā)布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理八項原則,以發(fā)展負責任的人工智能。可見,各界已經(jīng)基本達成共識,以人工智能為代表的新一輪技術發(fā)展應用離不開倫理原則提供的價值引導。
因此,我們認為需要構建以信任、幸福、可持續(xù)為價值基礎的人工智能倫理,以便幫助重塑數(shù)字社會的信任,實現(xiàn)技術、人、社會三者之間的良性互動和發(fā)展,塑造健康包容可持續(xù)的智慧社會。
構建讓人信任的人工智能規(guī)則體系
雖然技術自身沒有道德、倫理的品質,但是開發(fā)、使用技術的人會賦予其倫理價值,因為基于數(shù)據(jù)做決策的軟件是人設計的,他們設計模型、選擇數(shù)據(jù)并賦予數(shù)據(jù)意義,從而影響人們的行為。所以,這些代碼并非價值中立,其中包括了太多關于人類的現(xiàn)在和未來的決定。所以,技術無關價值的論斷并不正確。現(xiàn)在人們無法完全信任人工智能,一方面是因為人們缺乏足夠信息,對這些與我們的生活和生產息息相關的技術發(fā)展缺少足夠的了解;另一方面是因為人們缺乏預見能力,既無法預料企業(yè)會拿自己的數(shù)據(jù)做什么,也無法預測人工智能系統(tǒng)的行為。
因此,需要構建能夠讓人們信任的人工智能規(guī)則體系,讓技術接受價值引導。作為建立技術信任的起點,人工智能發(fā)展與應用需要遵循四個方面的理念,給人工智能發(fā)展提供必要的價值引導。
一是可用。發(fā)展人工智能的首要目的,是促進人類發(fā)展,給人類和人類社會帶來福祉,實現(xiàn)包容、普惠和可持續(xù)發(fā)展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術紅利,避免出現(xiàn)技術鴻溝??捎眯赃€意味著以人為本的發(fā)展理念、人機共生、包容性以及公平無歧視。要求踐行“經(jīng)由設計的倫理”理念,將倫理價值融入到人工智能產品、服務的設計當中。
二是可靠。人工智能應當是安全可靠的,能夠防范網(wǎng)絡攻擊等惡意干擾和其他意外后果,實現(xiàn)安全、穩(wěn)定與可靠。一方面人工智能系統(tǒng)應當經(jīng)過嚴格的測試和驗證,確保其性能達到合理預期;另一方面人工智能應確保數(shù)字網(wǎng)絡安全、人身財產安全以及社會安全。
三是可知。人工智能應當是透明的,是人可以理解的,避免技術“黑盒”影響人們對人工智能的信任。目前,學界和業(yè)界已在致力于解決人工智能“黑盒”問題,實現(xiàn)可理解的人工智能算法模型。此外,算法透明不是對算法的每一個步驟、算法的技術原理和實現(xiàn)細節(jié)進行解釋,簡單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術安全應用。相反,在人工智能系統(tǒng)的行為和決策上實現(xiàn)有效透明將更可取,也能提供顯著的效益,例如在適當?shù)臅r候對人工智能系統(tǒng)的決策和行為提供說明,而不是一味追求技術透明。最后,在發(fā)展和應用人工智能的過程中,應為社會公眾參與創(chuàng)造機會,并支持個人權利的行使包括隱私、表達自由、救濟等。
四是可控。人工智能的發(fā)展應置于人類的有效控制之下,避免危害人類個人或整體的利益。短期來看,發(fā)展和應用人工智能應確保其帶來的社會福祉顯著超過其可能給個人和社會帶來的可預期的風險和負面影響,確保這些風險和負面影響是可控的,并在風險發(fā)生之后積極采取措施緩解、消除風險及其影響。長期來看,雖然人們現(xiàn)在還無法預料通用人工智能和超級人工智能能否實現(xiàn)以及如何實現(xiàn),也無法完全預料其影響,但應遵循預警原則,防范未來的風險,使未來可能出現(xiàn)的通用人工智能和超級人工智能能夠服務于全人類的利益。
當然,信任的建立,需要一套規(guī)則體系。在這些原則之下,人們可以探索制定標準、法律、國際公約等。需要采取包容審慎、敏捷靈活的治理方式,可以采取事后監(jiān)管或者通過出臺標準、行業(yè)公約、倫理框架、最佳實踐、技術指南等調整人工智能等新技術的發(fā)展應用,支持行業(yè)自律。
確保人人都能追求數(shù)字福祉
其一,保障個人的數(shù)字福祉,人人都有追求數(shù)字福祉的權利。一方面需要消除技術鴻溝和數(shù)字鴻溝,全球還有接近一半人口沒有接入互聯(lián)網(wǎng),老年人、殘疾人等弱勢群體未能充分享受到數(shù)字技術帶來的便利。另一方面減小、防止數(shù)字技術對個人的負面影響,網(wǎng)絡過度使用、信息繭房、算法偏見、假新聞等現(xiàn)象暴露出了數(shù)字產品對個人健康、思維、認知、生活和工作等方面的負面影響,呼吁互聯(lián)網(wǎng)經(jīng)濟從吸引乃至攫取用戶注意力向維護、促進用戶數(shù)字福祉轉變,要求科技公司將對用戶數(shù)字福祉的促進和保障融入到數(shù)字產品及服務的設計中。
其二,保障個人的工作和自由發(fā)展,人人都有追求幸福工作的權利。雖然有人聲稱人工智能將導致大規(guī)模失業(yè)和無用階層的出現(xiàn),但目前而言,人工智能的經(jīng)濟影響依然相對有限,不可能很快造成大規(guī)模失業(yè),也不可能終結人類工作,因為技術采納和滲透往往需要數(shù)年甚至數(shù)十年,需要對生產流程、組織設計、商業(yè)模式、供應鏈、法律制度、文化期待等各方面做出調整和改變。但工作的內容、性質、方式和需求等可能發(fā)生很大變化,需要人們掌握新的知識和技能。預測顯示,未來20年內,90%以上的工作或多或少都需要數(shù)字技能。而且人工智能、機器人等新技術正在從ICT領域向實體經(jīng)濟、服務業(yè)、農業(yè)等諸多經(jīng)濟部門擴散、滲透,未來中國將成為機器人大國,這些變化將在很大程度上影響當前的就業(yè)和經(jīng)濟結構?,F(xiàn)在需要做的就是為當下和未來的勞動者提供適當?shù)募寄芙逃?,為過渡期勞動者提供再培訓、再教育的公平機會,支持早期教育和終身學習。
塑造健康包容可持續(xù)的智慧社會
技術創(chuàng)新是推動人類和人類社會發(fā)展的最主要因素。在21世紀的今天,人類所擁有的技術能力,以及這些技術所具有的“向善”潛力,是歷史上任何時候都無法比擬的。換言之,人工智能等新技術本身是“向善”的工具,可以成為一股“向善”的力量,用于解決人類發(fā)展面臨著的各種挑戰(zhàn)。與此同時,人類所面臨的挑戰(zhàn)也是歷史上任何時候都無法比擬的。聯(lián)合國制定的《2030可持續(xù)發(fā)展議程》確立了17項可持續(xù)發(fā)展目標,實現(xiàn)這些目標需要解決相應的問題和挑戰(zhàn),包括來自生態(tài)環(huán)境的、來自人類健康的、來自社會治理的、來自經(jīng)濟發(fā)展的等等。
將新技術應用于這些方面,是正確的、“向善”的方向。例如,人工智能與醫(yī)療、教育、金融、政務民生、交通、城市治理、農業(yè)、能源、環(huán)保等領域的結合,可以更好地改善人類生活,塑造健康包容可持續(xù)的智慧社會。因此,企業(yè)不能只顧財務表現(xiàn)、只追求經(jīng)濟利益,還必須肩負社會責任,追求社會效益,服務于好的社會目的和社會福祉,給社會帶來積極貢獻,實現(xiàn)利益與價值的統(tǒng)一。包括有意識有目的地設計、研發(fā)、應用技術來解決社會挑戰(zhàn)。