熱門文章
如何看待我們和人工智能的關(guān)系
發(fā)布時(shí)間:2018-07-09 分類:交通百科
談到人工智能的未來,有兩種觀點(diǎn):
烏托邦觀點(diǎn):人工智能將迎來一個(gè)新的啟蒙時(shí)代,在這個(gè)新時(shí)代里,人類不再工作,而是追求更崇高的目標(biāo)。未未系統(tǒng)將被規(guī)劃來治療疾病,公平地解決爭端,并且只以有益于我們的方式來增加我們?nèi)祟惖拇嬖凇?
世界末日的觀點(diǎn)是:人工智能將竊取我們的工作,在進(jìn)化上超越人類,成為戰(zhàn)爭機(jī)器,并將遙遠(yuǎn)的未來置于當(dāng)前的需求之上。我們難以控制的努力只會(huì)暴露出我們自身的缺點(diǎn)和將道德應(yīng)用于我們無法控制的技術(shù)的能力的低下。
和大多數(shù)事情一樣,真相可能介于兩者之間
不管你落在這個(gè)光譜的什么位置,重要的是要考慮隨著技術(shù)的發(fā)展,人類應(yīng)該怎樣影響人工智能。一種觀點(diǎn)認(rèn)為,人類將在很大程度上形成人工智能的良心或道德結(jié)構(gòu)。但我們要怎么做呢?我們怎樣才能把倫理運(yùn)用到人工智能中來幫助防止最壞的事情發(fā)生呢?
人與人工智能的關(guān)系
深度學(xué)習(xí)系統(tǒng)的力量在于它們決定自己的參數(shù)或特征。只要給他們一個(gè)任務(wù)或目標(biāo),指向他們的數(shù)據(jù),他們處理其余的。例如,SAS可視化數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)中的自動(dòng)匯總功能可以為自己找出最佳結(jié)果。但人仍然是整個(gè)過程中最關(guān)鍵的部分。
雖然未來的人工智能系統(tǒng)也可能能夠收集他們自己的數(shù)據(jù),但大多數(shù)當(dāng)前的系統(tǒng)依靠人來提供輸入?yún)?shù),包括數(shù)據(jù)和最佳結(jié)果,這是通過學(xué)習(xí)定義類強(qiáng)化學(xué)習(xí)確定的。當(dāng)您要求算法找出實(shí)現(xiàn)該結(jié)果的最佳方法時(shí),您不知道機(jī)器將如何解決該問題。你只是知道它會(huì)比你更有效率。
鑒于目前人類和人工智能之間的這種關(guān)系,我們可以采取一些步驟,從道德上更好地控制人工智能項(xiàng)目的結(jié)果,讓我們從這三個(gè)開始。
人工智能倫理的第一步:提供最好的數(shù)據(jù)
人工智能算法是通過一組用于通知或構(gòu)建算法的數(shù)據(jù)來訓(xùn)練的。如果您的算法是將鯨魚識(shí)別為馬,顯然您需要提供更多關(guān)于鯨魚(和馬)的數(shù)據(jù)。同樣,如果您的算法是將動(dòng)物識(shí)別為人類,則需要提供更多關(guān)于更多不同人類集合的數(shù)據(jù)。如果你的算法做出了不準(zhǔn)確或不道德的決定,這可能意味著沒有足夠的數(shù)據(jù)來訓(xùn)練模型,或者學(xué)習(xí)強(qiáng)化不適合預(yù)期的結(jié)果。
當(dāng)然,也有可能是人類在不知不覺中通過有偏見的數(shù)據(jù)選擇或錯(cuò)誤分配的強(qiáng)化值向系統(tǒng)注入了不道德的價(jià)值??傊?,我們必須確保我們提供的數(shù)據(jù)和輸入為算法繪制了完整和正確的圖片。
人工智能倫理的第二步:提供適當(dāng)?shù)谋O(jiān)督
為所有人工智能項(xiàng)目建立一個(gè)有明確所有者和利益相關(guān)者的治理系統(tǒng)。定義哪些決定你將自動(dòng)與人工智能,哪些將需要人的投入。對過程中的所有部分分配責(zé)任,對人工智能錯(cuò)誤負(fù)責(zé),并為人工智能系統(tǒng)的開發(fā)設(shè)置明確的邊界。這包括定期監(jiān)測和審計(jì)算法,以確保偏見不會(huì)悄悄進(jìn)入,而且模型仍按預(yù)期運(yùn)作。
無論是數(shù)據(jù)科學(xué)家還是一位敬業(yè)的倫理學(xué)家,都應(yīng)該有人負(fù)責(zé)人工智能的政策和協(xié)議,包括遵守規(guī)則。也許有一天,所有的組織都會(huì)建立一個(gè)首席人工智能倫理學(xué)家的角色。但是,無論標(biāo)題如何,都必須有人負(fù)責(zé)確定輸出和性能是否在給定的道德框架內(nèi)。
就像我們一直需要治理、可跟蹤性、監(jiān)視和標(biāo)準(zhǔn)分析的改進(jìn)一樣,我們也對人工智能也是如此。然而,人工智能的影響要大得多,因?yàn)闄C(jī)器可以開始問題,自己定義答案。
人工智能倫理的第3步:考慮新技術(shù)的影響
為了讓個(gè)人執(zhí)行政策,這項(xiàng)技術(shù)必須允許人類做出調(diào)整。人類必須能夠選擇和調(diào)整訓(xùn)練數(shù)據(jù),控制數(shù)據(jù)源,并選擇數(shù)據(jù)轉(zhuǎn)換的方式。同樣,人工智能技術(shù)應(yīng)該支持健壯的治理,包括數(shù)據(jù)訪問和在算法不正確或在道德定義的邊界之外操作時(shí)對算法進(jìn)行指導(dǎo)的能力。
沒有辦法用人工智能來預(yù)測所有可能的場景,但重要的是要考慮到可能性,并為正面和負(fù)面的強(qiáng)化設(shè)置控制。例如,引入新的、甚至相互競爭的目標(biāo)可以獎(jiǎng)勵(lì)符合道德的決定,并將不道德的決定認(rèn)定為錯(cuò)誤或被誤導(dǎo)。一個(gè)人工智能系統(tǒng)被設(shè)計(jì)成對質(zhì)量和效率給予同等的重視,將產(chǎn)生不同的結(jié)果,而不是一個(gè)完全集中在效率上的系統(tǒng)。此外,設(shè)計(jì)一個(gè)具有若干獨(dú)立和相互沖突的目標(biāo)的人工智能系統(tǒng)可能會(huì)增加該系統(tǒng)的問責(zé)制。
不要回避人工智能倫理
人工智能可以提高汽車安全和診斷癌癥-但它也可以選擇巡航導(dǎo)彈的目標(biāo)。所有人工智能能力都有相當(dāng)大的倫理影響,需要從多個(gè)角度加以討論。我們?nèi)绾未_保人工智能的道德體系不被濫用?
上面的三個(gè)步驟只是一個(gè)開始。他們將幫助你開始關(guān)于為你的組織制定道德人工智能指導(dǎo)方針的艱難對話。你可能不愿劃清這些道德界限,但我們不能回避這場對話。所以別等了?,F(xiàn)在就開始討論,這樣您就可以確定邊界,如何執(zhí)行它們,甚至在必要時(shí)如何更改它們。