大約80%的人工智能教授都是男性,而女性在facebook的人工智能研究人員中占15%,在谷歌則占10%。
對于主要科技公司的黑人員工,這一比例甚至更低,谷歌只有2.5%,facebook和微軟只有4%。
一項新研究表明,當人工智能項目由大多數白人男性工作者構建時,偏見滲透,他們強調“對'正常'人的狹隘觀念”。
根據紐約大學ai now研究所的一份新報告,科技行業大多數白人男性編碼人員正在制造“多元化危機”,其偏見滲透到面部識別程序和聊天機器人等產品中。該報告重點介紹了google,facebook和微軟等主要科技公司的勞動力性別失衡如何幫助人工智能中的偏見。
>
ai用于從面部識別到聊天機器人的各種產品。但該報告指出,在facebook上只有15%的人工智能研究人員是女性,而對谷歌來說,它甚至更低,為10%。
這強調了該研究的作者所說的反映多元化社會的多元化勞動力的重要性。他們認為,科技行業的大多數白人男性人工智能編碼器與技術產品中的偏見有關。他們表示,對問題進行補救將需要更廣泛的多樣性方法,包括從精英校園以外的大學招聘,以及提高ai產品的透明度。
“到目前為止,人工智能行業的多樣性問題以及它所構建的系統中的偏見問題都傾向于單獨考慮,”作者sarah myers west,meredith whittaker和kate crawford寫道。“但我們認為這些是同一問題的兩個版本:勞動力和制度建設中的歧視問題深深地交織在一起。”
“'正常'人的狹隘觀念”
研究人員寫道,不僅人工智能可能會歧視某些類型的人,而且它“對他人有利,加強了對'正常'人的狹隘觀念”。
該報告強調了人工智能計劃為已經遭受偏見的群體創造有害環境的幾種方式。其中包括:
亞馬遜人工智能招聘工具掃描申請人的簡歷依賴于之前的招聘簡歷,為理想的招聘設定標準。然而,人工智能開始降低參加女子學院的申請人的評級,或者在簡歷中加入“女性”一詞。
亞馬遜的rekognition面部分析計劃難以識別黑皮膚的女性。根據一份報告,該計劃誤認為他們是男性,雖然該計劃沒有任何問題識別男性的任何膚色。
“深切關注”
對于人工智能內部的偏見問題,紐約大學并不是第一個發出警告的人。諸如麻省理工學院技術評論和aclu等團體已經記錄了影響招聘和刑事判決等問題的問題結果。
麻省理工學院技術評論指出,問題源于深度學習階段,當編碼員通過培訓數據“教授”一個項目時。程序員可以依靠不能準確反映世界的數據集來向系統添加偏見,例如依賴包含極少數黑人的面部圖像。
程序員還可以通過確定哪些屬性很重要來增加偏見 - 例如性別。如果一家公司以前的雇員大多是男性,該計劃可能會學習排除女性,如亞馬遜的招聘計劃,加強了招聘的偏見模式。
來源:中國產業經濟信息網
以上是網絡信息轉載,信息真實性自行斟酌。