我們應該害怕人工智能嗎?
2018-11-21 11:56來源:新天域互聯//
原標題:我們應該害怕人工智能嗎?
一些知名人士,如傳奇物理學家斯蒂芬霍金和特斯拉以及spacex領導者和創新者埃隆馬斯克認為人工智能可能非常危險; 馬斯克曾一度將人工智能與朝鮮獨裁者的危險進行比較。微軟聯合創始人比爾蓋茨也認為有理由保持謹慎,但如果管理得當,好處可能會超過壞處。由于最近的發展使得超智能機器比最初想象的要早得多,現在是時候確定人工智能帶來的危險。
什么是應用和廣義人工智能?
人造智能的核心是建立能夠智能思考和行動的機器,并包括諸如谷歌的搜索算法或使自動駕駛汽車成為可能的機器等工具。雖然大多數當前的應用程序都被用來積極地影響人類,但任何強大的工具都可以在落入壞人手中時用于有害目的。今天,我們已經實現了應用ai-ai,它執行面部識別,自然語言處理或互聯網搜索等狹窄任務。最終,該領域的專家正在努力實現更廣泛的ai,系統可以處理智能人類可以執行的任何任務,并且最有可能在每個人身上擊敗我們。
在一篇評論中,elon musk寫道:“人工智能的進步速度(我指的是狹窄的人工智能)非常快。除非你直接接觸像deepmind這樣的團體,否則你不知道它的增長速度有多快接近指數的速度。發生嚴重危險的風險發生在五年時間框架內。最多10年。“
確實有很多ai應用程序可以讓我們的日常生活變得更加方便和高效。人工智能應用程序在確保馬斯克,霍金和其他人在宣布對技術猶豫時所擔心的安全方面發揮著關鍵作用。例如,如果人工智能負責確保我們的電網運行并且我們的最大恐懼已經實現,并且系統變得流氓或被敵人攻擊,則可能導致巨大的傷害。
人工智能如何危險?
雖然我們尚未實現超級智能機器,但法律,政治,社會,金融和監管問題是如此復雜和廣泛,現在有必要對它們進行審視,以便我們準備好在它們之間安全運行。時機成熟。現在,除了為超級智能機器做好準備之外,人工智能已經在目前的形式下造成危險。讓我們來看看一些與ai相關的關鍵風險。
自主武器
人工智能被編程為做一些危險的事情,就像被編程殺死的自主武器一樣,這是人工智能可能帶來風險的一種方式。期望核軍備競賽將被全球自主武器競賽取代甚至可能是合理的。俄羅斯總統弗拉基米爾普京說:“ 人工智能不僅是俄羅斯的未來,也是全人類的未來。它帶來了巨大的機遇,但也存在難以預測的威脅。無論誰成為這個領域的領導者,都將成為世界的統治者。“
除了擔心自主武器可能獲得“自己的思想”之外,更迫切需要關注的是自主武器可能對個人或政府不利于人類生命的危險。一旦部署,它們很可能難以拆除或打擊。
社交操縱
社交媒體通過其自主驅動算法在目標營銷方面非常有效。他們知道我們是誰,我們喜歡什么,并且非常善于推測我們的想法。調查仍在進行中,以確定劍橋分析公司和其他與該公司有關的其他公司的錯誤,該公司使用了來自0萬facebook用戶的數據來試圖影響2016年美國總統大選和英國退歐公投的結果,但如果指控是正確的,它說明了ai對社交操縱的力量。通過將宣傳傳播給通過算法和個人數據識別的個人,ai可以針對他們并以他們最有說服力的事實或虛構的任何形式傳播他們喜歡的任何信息。
侵犯隱私和社會分級
現在可以跟蹤和分析個人在線的每一步以及他們日常業務的時間。相機幾乎無處不在,面部識別算法知道你是誰。事實上,這是為中國的社會信用體系提供動力的信息類型,預計將根據他們的行為方式為其14億公民中的每一個人提供個人得分 - 例如他們jaywalk,他們吸煙嗎?非吸煙區以及他們花多少時間玩視頻游戲。當老大哥正在觀察你,然后根據英特爾做出決定時,它不僅會侵犯隱私,而且很快就會轉向社會壓迫。
我們的目標與機器之間的不一致
人類在人工智能機器中所重視的部分原因是它們的效率和有效性。但是,如果我們不清楚我們為人工智能機器設定的目標,那么如果機器沒有我們擁有的相同目標,則可能會很危險。例如,“盡快讓我到機場”的命令可能會產生可怕的后果。沒有說明道路規則必須得到尊重,因為我們重視人的生命,機器可以非常有效地實現其目標,即盡快讓您到機場,并按照您的要求進行,但留下一連串的事故。
區別
由于機器可以收集,跟蹤和分析很多關于您的信息,因此這些機器很可能會對您使用該信息。不難想象一家保險公司告訴你,根據你在手機上用相機說話的次數,你不可保險。雇主可能會根據您的“社會信用評分”扣留工作機會。
來源:搜狐
以上是網絡信息轉載,信息真實性自行斟酌。