人工智能(ai)可能是數(shù)字時代最具顛覆性的技術(shù),因?yàn)槠髽I(yè)正在研究如何利用機(jī)器學(xué)習(xí)(ml)和其它人工智能工具來挖掘客戶洞察,發(fā)現(xiàn)人才和保護(hù)企業(yè)網(wǎng)絡(luò)。雖然it部門可以快速推出大量技術(shù)并從中受益,但有證據(jù)表明,首席信息官在實(shí)施人工智能時應(yīng)該格外小心,包括采用涉及到濃厚道德因素的技術(shù)。
為什么呢?因?yàn)槿斯ぶ悄茴H受偏見問題的困擾。有這樣一個例子,亞馬遜廢棄了一個招聘工具,因?yàn)樗茨軐氖萝浖_發(fā)工作和其它崗位的女性做出公正的評價。還有一個例子,麻省理工學(xué)院和多倫多大學(xué)的研究人員發(fā)現(xiàn),亞馬遜的面部識別軟件將女性(尤其是皮膚黝黑的女性)誤認(rèn)為男性。
人工智能中存在很多偏見
亞馬遜并不是唯一的例子,因?yàn)槿斯ぶ悄軉栴}已經(jīng)出現(xiàn)在其它公司和其它高風(fēng)險領(lǐng)域。臉書的程序經(jīng)理在測試公司的portal視頻聊天設(shè)備時遇到了算法歧視。propublica表明,美國各地用來預(yù)測未來罪犯的軟件對非洲裔美國人存在偏見。加州大學(xué)伯克利分校對金融科技所做的研究發(fā)現(xiàn),拉丁美洲和/或非洲裔美國人在使用了面對面決策和算法的抵押貸款中要支付更高的利息。
同樣值得關(guān)注的是與邊緣情況有關(guān)的歧視,這種偏見十分隱秘。在“替代性歧視”中,郵政編碼可能會成為種族的替代品;詞語的選擇則可能成為性別的替代品;如果你加入一個討論基因突變的臉書小組,那么你的健康保險成本很可能會增加,即便這樣的信號尚未明確編入算法中。
很明顯,人工智能受到能對物理世界產(chǎn)生影響的數(shù)字化偏見的困擾。畢竟,算法是“人類設(shè)計(jì)的產(chǎn)物”,它繼承了人類的偏見,紐約大學(xué)ai now研究所的聯(lián)合創(chuàng)始人kate crawford這樣說道。ieee spectrum稱,這種偏見可以持續(xù)數(shù)十年。
因此,it領(lǐng)導(dǎo)者越來越關(guān)注“可解釋的”人工智能。他們渴望得到能明確表達(dá)結(jié)果的算法,這些算法在理想情況下能滿足監(jiān)管機(jī)構(gòu)和企業(yè)高管的需求。但由于存在固有的偏見,也許他們真正需要的是“文明人工智能”,或者完全不偏不倚地運(yùn)作的算法。
使用倫理學(xué)消除人工智能偏見:六個建議
隨著首席信息官加快對人工智能的采用,采取小心謹(jǐn)慎的方法至關(guān)重要。gartner于2019年對3,000名首席信息官所做的調(diào)查顯示,采用人工智能的企業(yè)數(shù)量從4年前的10%上升至37%。短期內(nèi),公司應(yīng)該嘗試基于其對人工智能的使用制定道德規(guī)范。德勤、簡柏特(genpact)和峽灣(fjord)的專家討論了企業(yè)應(yīng)該如何合理地推進(jìn)人工智能的部署。
董事會和利益相關(guān)者都參與進(jìn)來
由于與人工智能相關(guān)的道德問題可能對公司的聲譽(yù)、財(cái)務(wù)和戰(zhàn)略帶來巨大且長期的風(fēng)險,因此首席信息官應(yīng)與董事會合作,以減輕與人工智能相關(guān)的風(fēng)險,德勤美國的創(chuàng)新團(tuán)隊(duì)的董事總經(jīng)理david schatsky如是說。如果要將道德規(guī)范融入人工智能,首先要確定這對利益相關(guān)者(包括客戶、員工、監(jiān)管機(jī)構(gòu)和公眾)有何重大意義。schatsky說:“組織必須參與其中并公開利益相關(guān)者的身份。”
成立“數(shù)字倫理”小組委員會
來源:網(wǎng)絡(luò)
以上是網(wǎng)絡(luò)信息轉(zhuǎn)載,信息真實(shí)性自行斟酌。