技術(shù)
導(dǎo)讀:隨著很多企業(yè)投入大量資金和人力研究和開發(fā)人工智能,他們面臨著隱私與道德的相關(guān)問題。
隨著很多企業(yè)投入大量資金和人力研究和開發(fā)人工智能,他們面臨著隱私與道德的相關(guān)問題。例如,負(fù)責(zé)任的人工智能是什么樣的?如何控制人工智能偏見?人工智能技術(shù)是前沿技術(shù),它對(duì)社會(huì)發(fā)展有著嚴(yán)重的影響。但在企業(yè)能夠解決道德問題之前,他們應(yīng)該關(guān)注數(shù)據(jù)治理的更基本問題。
人工智能技術(shù)在過去五年中發(fā)展迅速。很多人認(rèn)為神經(jīng)網(wǎng)絡(luò)在某些任務(wù)中比人類做得更好,特別是在某些圖像分類系統(tǒng)中。企業(yè)可以利用這些先進(jìn)的人工智能功能來簡化運(yùn)營,提高利潤,降低成本,并改善客戶服務(wù)。
但I(xiàn)nformation Builders公司阿姆斯特丹辦事處數(shù)據(jù)管理卓越中心的國際主管James Cotton說,盡管人工智能技術(shù)很強(qiáng)大,但如果基礎(chǔ)數(shù)據(jù)管理不善,就不能以合乎道德的方式實(shí)施。他指出,了解數(shù)據(jù)治理與人工智能道德之間的關(guān)系至關(guān)重要。
他說,“數(shù)據(jù)治理是人工智能道德的基礎(chǔ)。如果企業(yè)不知道自己擁有什么,數(shù)據(jù)來自哪里,數(shù)據(jù)是如何使用的,或者數(shù)據(jù)被用于什么目的,就不能以道德的方式使用數(shù)據(jù)?!?/p>
實(shí)施GDPR法規(guī)是一個(gè)良好的開端
企業(yè)面臨的挑戰(zhàn)在于沒有適用的數(shù)據(jù)治理的標(biāo)準(zhǔn)或方法。而歐盟推出的通用數(shù)據(jù)保護(hù)法規(guī)(GDPR)就是一個(gè)良好的開端,但即使實(shí)施GDPR法規(guī)也不足以確保在所有情況下都能實(shí)現(xiàn)良好的數(shù)據(jù)治理。而人們希望通過2021年推出的電子隱私條例(ePR)法來解決這一問題。
對(duì)于同一數(shù)據(jù)塊,采用良好治理的規(guī)則可能會(huì)有所不同,這取決于如何收集它們以及如何使用它們,這是問題之一。
Cotton說,“人們都傾向于把數(shù)據(jù)看作一堆1和0,并在數(shù)據(jù)庫中存放大量數(shù)據(jù)。事實(shí)上,并非所有數(shù)據(jù)都是平等創(chuàng)建的。當(dāng)然,也并非所有數(shù)據(jù)都被同等對(duì)待,而且可能不應(yīng)該這樣?!?/p>
Cotton表示,例如記錄中某位客戶的頭發(fā)是紅色的,這并不被視為“個(gè)人數(shù)據(jù)”。他說,“這并沒有什么個(gè)人暗示。但如果他或她住在芬蘭北部一個(gè)只有20人的村莊,將這兩個(gè)特征相結(jié)合,合并的數(shù)據(jù)集可能能夠識(shí)別這個(gè)客戶,因此應(yīng)該以不同的方式處理?!?/p>
Cotton表示,這種不斷變化的數(shù)據(jù)性質(zhì)可能會(huì)破壞企業(yè)遵守GDPR法規(guī)的能力,更不用說提供有意義的信息來長期訓(xùn)練人工智能模型。其最佳實(shí)踐是不要在與原始數(shù)據(jù)集合相關(guān)聯(lián)的場景之外使用數(shù)據(jù)。
但數(shù)據(jù)和數(shù)據(jù)治理的其他方面對(duì)人工智能和模型訓(xùn)練有著更直接的影響,其中之一就是糟糕的數(shù)據(jù)。
錯(cuò)誤的數(shù)據(jù)
那些希望在人工智能技術(shù)方面有所成就的企業(yè)都希望獲得準(zhǔn)確和正確的數(shù)據(jù),這是因?yàn)榭梢蕴岣呷斯ぶ悄艿挠行院蛯?shí)用性。由于數(shù)據(jù)準(zhǔn)確性是良好數(shù)據(jù)治理的副產(chǎn)品,因此采用良好的數(shù)據(jù)治理實(shí)踐符合企業(yè)的本身利益。
這是循環(huán)的良性部分:良好的數(shù)據(jù)治理導(dǎo)致開發(fā)更好的人工智能,而更好的人工智能反過來支持更符合道德的人工智能。人們還可以想象,如果客戶相信開發(fā)商以合乎道德的方式實(shí)施人工智能,他們會(huì)更愿意與開發(fā)商共享更多、更好的數(shù)據(jù),如果他們知道它不會(huì)被濫用,并且是準(zhǔn)確的,他們也可能從中得到一些有益的東西。
但如果數(shù)據(jù)質(zhì)量一開始就很低,其輸出的結(jié)果將會(huì)更加糟糕。
Cotton說,“我們知道,世界上大部分?jǐn)?shù)據(jù)都是錯(cuò)誤的。”這些數(shù)據(jù)質(zhì)量錯(cuò)誤來自各種地方。問題是,一將它們應(yīng)用到人工智能上,無論人工智能技術(shù)能否處理這些問題,人工智能只會(huì)在大規(guī)模上做出錯(cuò)誤的決定?!?/p>
Information Builders公司將數(shù)據(jù)治理解決方案作為其套件的一部分出售。該軟件可以幫助客戶回答這樣的問題:“例如,這些數(shù)據(jù)來自何處?為什么首先收集這些數(shù)據(jù)?在此過程中,我們對(duì)它做了什么?出于什么原因?誰最后使用了它?它在哪里使用?它是如何被利用的?我們是否對(duì)此認(rèn)同?”
Cotton說:“任何合適的數(shù)據(jù)管理項(xiàng)目都存在這樣的問題。如今,當(dāng)越來越多的企業(yè)和潛在客戶開始認(rèn)識(shí)到他們?cè)诮M織中所擁有的數(shù)據(jù)的價(jià)值,并開始真正地將其視為一種戰(zhàn)略資產(chǎn)時(shí),他們也開始更加重視該信息的實(shí)際管理和治理,并應(yīng)以最佳方式進(jìn)行組織和使用?!?/p>
人工智能道德倫理指南
GDPR法規(guī)和其他類似隱私法律為企業(yè)提供數(shù)據(jù)治理的最低標(biāo)準(zhǔn),或者因此而面臨巨額罰款。最重要的數(shù)據(jù)驅(qū)動(dòng)型企業(yè)在與人們及其數(shù)據(jù)的互動(dòng)方面往往超出GDPR法規(guī)要求,但GDPR法規(guī)仍然是一種標(biāo)準(zhǔn)較低的法規(guī)。
目前,在人工智能道德方面并不能采用最低標(biāo)準(zhǔn)。咨詢機(jī)構(gòu)德勤公司負(fù)責(zé)人Vic Katyal說,不要指望人工智能道德法規(guī)會(huì)很快出臺(tái)。
Katyal說,“對(duì)于那些使用人工智能技術(shù)的用戶來說,擔(dān)心面臨一些風(fēng)險(xiǎn)。而在調(diào)查中,40多名證券交易委員會(huì)注冊(cè)者對(duì)人工智能相關(guān)風(fēng)險(xiǎn)表示擔(dān)憂。但是,當(dāng)人們談?wù)摻M織的發(fā)展方向、支出、發(fā)展旅程時(shí),在這一點(diǎn)上,我認(rèn)為很多事情都處在初始發(fā)展階段?!?/p>
Katyal說,受監(jiān)管行業(yè)的企業(yè)正在進(jìn)一步解決人工智能道德問題,就像他們傾向于進(jìn)一步推進(jìn)數(shù)據(jù)治理項(xiàng)目一樣,位于人工智能道德領(lǐng)域前沿。但他表示,由于美國缺乏數(shù)據(jù)治理和數(shù)據(jù)隱私監(jiān)管法規(guī),因此在確定人工智能道德標(biāo)準(zhǔn)方面的進(jìn)展正在受到阻礙。
他說,“在美國,人們甚至無法就數(shù)據(jù)隱私規(guī)則的共性達(dá)成一致。美國各州都有自己的法規(guī)。即使是基本的數(shù)據(jù)隱私動(dòng)機(jī)、本地化類型的規(guī)則,也無法創(chuàng)建聯(lián)邦層面的規(guī)則。”
Katyal預(yù)測,如果制定出更加完善的人工智能道德法規(guī),那么很可能來自歐洲,而且將在三到五年之后推出。
他繼續(xù)說:“人們?nèi)栽谂刂迫斯ぶ悄艿牡赖聵?biāo)準(zhǔn),而實(shí)現(xiàn)這個(gè)標(biāo)準(zhǔn)需要一段時(shí)間。我希望在數(shù)據(jù)治理方面看到更多的事情發(fā)生,將其視為隱私標(biāo)準(zhǔn)和規(guī)則,并達(dá)成一致。如果能達(dá)成協(xié)議,那就更好了。”
然而,只是因?yàn)槟壳皼]有關(guān)于人工智能道德使用的法規(guī),這并不意味著企業(yè)不應(yīng)該考慮它。
現(xiàn)在的人工智能道德
Katyal提供了一些如何在組織中考慮采用人工智能的提示。
他說,“首先,企業(yè)在采用人工智能技術(shù)時(shí),必須將控制結(jié)構(gòu)放在管理算法以及數(shù)據(jù)方面?!?/p>
他表示,“如果是一個(gè)受監(jiān)管的行業(yè),那么該算法所做的任何決定都可能以某種方式影響或違反監(jiān)管措施。如果不是受監(jiān)管的行業(yè),那將面臨聲譽(yù)風(fēng)險(xiǎn),因?yàn)槠渌惴赡軙?huì)失控,帶來一些問題,并導(dǎo)致企業(yè)的品牌、聲譽(yù)、人員、客戶受到影響,而企業(yè)可能不得不為此付出代價(jià)。企業(yè)應(yīng)該以正在建造的東西和誰在建造它們?yōu)橹攸c(diǎn)進(jìn)行治理,因?yàn)閿?shù)據(jù)治理顯然正在發(fā)生變化。圍繞人工智能的算法進(jìn)行一些治理,確保企業(yè)能夠了解正在發(fā)生的事情。這是一種很好的做法,雖然可能沒有規(guī)則推動(dòng)這樣做,但這是正確的做法?!?/p>