中國(guó)新聞】雖然人工智能正在蓬勃發(fā)展,但各大公司高層仍然對(duì)該技術(shù)采取謹(jǐn)慎態(tài)度。一個(gè)值得關(guān)注的領(lǐng)域就是人工智能的道德規(guī)范和其潛在的商業(yè)價(jià)值,70%的公司甚至對(duì)從事該技術(shù)工作的it人員進(jìn)行了特殊的道德培訓(xùn)。
最近,福布斯與sas軟件研究所,埃森哲和英特爾合作調(diào)查了305家企業(yè)對(duì)人工智能道德,信心和商業(yè)價(jià)值的態(tài)度。僅僅是根據(jù)技術(shù)人員,51%的人表示基于人工智能的技術(shù)部署對(duì)其公司運(yùn)營(yíng)的影響已經(jīng)“成功”或“非常成功。
該調(diào)查報(bào)告將人工智能定義為“通過學(xué)習(xí)來自動(dòng)模擬人工任務(wù)的培訓(xùn)系統(tǒng)科學(xué)”。人工智能的采用者表示,如今的道德約束相對(duì)較強(qiáng),63%的人肯定他們“有一個(gè)審查人工智能使用的道德委員會(huì)”,70%表示他們“為其技術(shù)人員提供道德培訓(xùn)”。該報(bào)告表示,通過人工智能部署而取得了真正成功的公司中,92%表示他們?yōu)榧夹g(shù)專家進(jìn)行道德培訓(xùn),而在部署人工智能方面尚未取得真正成功公司的提供率則為48%。
盡管如此,正如托馬斯·達(dá)文波特(thomas davenport)在當(dāng)前的麻省理工學(xué)院斯隆管理評(píng)論中所說,人工智能需要更高的透明度。他建議人工智能實(shí)施者謹(jǐn)慎行事:“無論是使用內(nèi)部還是外部認(rèn)知技術(shù),都需要面面俱到?!?/p>
人工智能
關(guān)鍵在于人工智能的發(fā)展需要公開化、透明化,達(dá)文波特解釋道:“在引入新功能時(shí),將其作為測(cè)試版產(chǎn)品推出,并傳達(dá)該技術(shù)的使用目標(biāo),不要取消解決員工或客戶問題的替代方案,也就是說不能取消人類的作用。隨著時(shí)間的推移,隨著技術(shù)的成熟和人工智能解決方案的改善,有關(guān)情況會(huì)變得越來越好?!?/p>
達(dá)文波特甚至提出了第三方人工智能算法認(rèn)證法,就像“食品藥品監(jiān)督管理局(fda)認(rèn)證藥物的功效,審核員認(rèn)證財(cái)務(wù)流程,保險(xiǎn)商實(shí)驗(yàn)室認(rèn)證產(chǎn)品的安全性”一樣?,F(xiàn)在是時(shí)候獨(dú)立認(rèn)證“ai算法的可靠性,可復(fù)制性和準(zhǔn)確性”,他敦促說。
總而言之,人工智能成功與否,取決于利益相關(guān)者的信任程度。福布斯和sas,埃森哲,英特爾的聯(lián)合調(diào)查結(jié)果表明:“企業(yè)和政府領(lǐng)導(dǎo)人會(huì)這樣做,但他們中的許多人理所當(dāng)然地?fù)?dān)心他們的員工對(duì)人工智能缺乏信任,這體現(xiàn)在人工智能對(duì)其公司影響的擔(dān)憂上。甚至有跡象表明,其中一些領(lǐng)導(dǎo)人對(duì)人工智能產(chǎn)出的程度存在疑問。信任對(duì)于人工智能的發(fā)展可能比任何技術(shù)和進(jìn)步都要有用?!?/p> 來源:網(wǎng)絡(luò)
以上是網(wǎng)絡(luò)信息轉(zhuǎn)載,信息真實(shí)性自行斟酌。