人工智能的爭論

已發表: 2017-09-27

關於人工智能的爭論並不新鮮——對於馬斯克或整個社會來說。

作為技術先驅,埃隆馬斯克幾乎不是任何人眼中的盧德分子。 因此,當馬斯克在推特上說與俄羅斯和中國的人工智能競爭將是第三次世界大戰的“最有可能的原因”時,這讓人們非常興奮。 然而,關於人工智能的爭議並不新鮮——對於馬斯克或整個社會來說。

人工智能:從一開始就令人恐懼

早在人工智能成為一門科學之前,我們就擔心創造人工存在的危險。 “機器人”一詞來自於 Karel Capek 於 1920 年寫的一部名為 RUR 的劇本——Rossum 的通用機器人(Rossumovi Univerzalni Roboti 在原捷克語中)。 該劇開始於一家製造合成人作為工人的工廠。 這些機器人最初是在沒有人類情感的情況下創造出來的,但隨著更多人類機器人的發展,它們會做……嗯,一群有知覺的機器人通常會做的事情。 再見,人類。

這是一個我們已經看到很多次的想法,以至於它已成為陳詞濫調。 故事範圍從威脅並殺死他們應該保護的人類的瘋狂 AI(想想 2001 年的 HAL)到終結人類的全面戰爭(終結者係列中的天網),但是當計算機化的生物變得有知覺時,故事通常會結束對所涉及的人類不利。

但這不僅僅是科幻小說的比喻——一些現代科學家對人工智能也有類似的擔憂。 史蒂芬霍金曾說過:“強大的人工智能的興起將是人類有史以來最好的事情,也可能是最糟糕的事情。 我們還不知道是哪個。”

人工智能會是人類有史以來最好的事情還是最壞的事情?

機器人夢想電動世界統治嗎?

在極端情況下,霍金並沒有拐彎抹角。 “完全人工智能的發展可能意味著人類的終結,”他說。 霍金關心有感知的人工智能的想法。 這種類型的智能可以“以不斷增加的速度重新設計自己”,人類無法與之競爭,因為我們“受到緩慢的生物進化的限制”。

霍金對人類被取代的擔憂受到了很多媒體的關注,因為它們看起來太棒了,但他提出了另一個更直接的擔憂:人工智能被人類控制器濫用的可能性。

“創造人工智能的成功將是我們文明史上最大的事件。 但它也可能是最後一次,除非我們學會如何規避風險。 除了好處之外,人工智能還會帶來危險,比如強大的自主武器,或者少數人壓迫多數人的新方法。”

在這些擔憂中,矽谷內外的一些最傑出的思想領袖加入了他的行列。 2015 年,霍金加入了世界知名機器人和認知研究人員、矽谷先驅和其他思想領袖的行列,呼籲禁止自主武器——人工智能戰爭機器,“在沒有人為乾預的情況下選擇和攻擊目標”。 這封信將自主武器描述為“繼火藥和核武器之後的第三次戰爭革命”,並描述瞭如果發生新的軍備競賽,可能會造成巨大的破壞:

人工智能已經徹底改變了戰爭。

人工智能已經徹底改變了戰爭。

“對於所有重要的軍事大國來說,它們將變得無處不在,而且價格低廉,可以大規模生產。 它們出現在黑市上並落入恐怖分子、希望更好地控制民眾的獨裁者、希望進行種族清洗的軍閥等手中只是時間問題。自主武器是暗殺、破壞穩定等任務的理想選擇。國家,壓制人口並選擇性地殺死特定種族。”

埃隆馬斯克可能是最熱衷於宣揚人工智能危險的人。 他曾與 Alphabet 首席執行官拉里佩奇等朋友公開爭論,暗示他們可能在不知不覺中播下人類毀滅的種子。 他談到了人工智能軍備競賽,並將人工智能比作“召喚[a]惡魔”。 出於這種擔憂,他創立了 OpenAI,這是一個將人工智能永遠從地球上驅逐出去的非營利組織。

為你推薦:

元界將如何改變印度汽車業

元界將如何改變印度汽車業

反暴利條款對印度初創企業意味著什麼?

反暴利條款對印度初創企業意味著什麼?

Edtech 初創公司如何幫助提高技能並使勞動力為未來做好準備

教育科技初創公司如何幫助印度的勞動力提高技能並為未來做好準備……

本週新時代科技股:Zomato 的麻煩仍在繼續,EaseMyTrip 發布強...

印度初創公司走捷徑尋求資金

印度初創公司走捷徑尋求資金

據報導,數字營銷初創公司 Logicserve Digital 從替代資產管理公司 Florintree Advisors 籌集了 80 盧比的資金。

數字營銷平台 Logicserve 獲得 80 盧比的資金,更名為 LS Dig...

不,對不起。 我們指的是一個致力於研究和構建“安全的通用人工智能”的非營利組織。 這聽起來不像是人工智能對手會做的事情,是嗎? 發生什麼了?

人工智能的當前(並且稍微不那麼可怕)狀態

人工智能已經出現了——已經有很長一段時間了。 當 Facebook 自動在圖片中建議您的名字時,或者您手機上的應用程序預測您將要寫的下一個單詞以節省您打字的時間? 那就是人工智能。 斯蒂芬霍金也使用人工智能。 肌萎縮側索硬化症 (ALS) 讓他幾乎完全癱瘓,所以他不得不用臉頰的小動作來選擇單詞。 他有一個設備可以學習他的講話模式,幫助他更輕鬆、更快速地選擇正確的單詞。

人工智能也在迅速發展。 Apple 的 Siri 和 Google Assistant 等數字助理在幫助你處理日常任務​​方面做得越來越好,從日程安排到使用自動化設備洗衣服,再到在你出去見朋友時分享你的位置。 人工智能已經在幫助檢測肺癌、預防車禍,甚至診斷出讓醫生感到難過的罕見疾病。

人工智能已經在幫助檢測癌症和其他疾病

人工智能已經在幫助檢測癌症和其他疾病。

然而,人工智能也可以用於令人不安的技術。 警察隨身攝像機中的面部識別可以幫助他們識別危險的嫌疑人,但它也可以用來追踪無辜的公民。 自動駕駛將繼續使運輸更安全、更高效,但它也可用於為自動無人機提供動力以用於破壞性目的,或被黑客劫持飛機。 然後是可怕的機器人叛亂。

問題不在於人工智能是否應該存在——它已經存在。 我們並沒有爭論人工智能是有幫助還是有破壞性,因為它顯然可以是兩者之一或兩者兼而有之。 重要的問題是我們應該擁有什麼樣的人工智能,如何使用它,以及誰來控制它。

人工智能未來的問題

1. 什麼樣的? 人工智能與人工智能

那些機器人叛亂場景通常與人工智能(AGI)有關。 花園品種 AI 旨在解決特定問題,例如駕駛汽車或檢測癌症。 通用人工智能更大——它指的是一種能夠像人一樣推理和思考的人工智能。 AGI 不一定必須有意識,但它能夠像人類一樣做事。 這可能意味著使用足夠好的語言來說服人類說話者它是人類(圖靈測試),進入普通家庭並煮咖啡(咖啡測試 - 由蘋果聯合創始人和人工智能“對手”史蒂夫沃茲尼亞克提出),甚至註冊和通過一門課(機器人大學生測試)。

通用人工智能是斯蒂芬霍金和埃隆馬斯克等人擔心的人工智能,它可能會用另一種有意識的物種取代我們。 但這也是 OpenAI 研究所正在研究的類型,因為——儘管有所有聳人聽聞的報導——阻止人工智能並不是馬斯克的真正目標。

普通人工智能解決特定問題。 通用人工智能模仿人類推理。

2. 誰控制人工智能?
人工智能是一項強大的技術,它可以使人類在廣泛的任務中更加有效。 OpenAI 等團體擔心的一個問題是,這種權力將集中在少數人或壞人手中,從而使極權主義政府、惡意公司、恐怖分子或其他不良行為者能夠做出各種破壞性的事情,直至並包括發動第三次世界大戰。 開源方法通過確保沒有任何團體能夠壟斷這項技術來平衡事情。

開源沒有解決的另一個問題是經濟中斷。 隨著技術的發展和效率的提高,它減少了所需的勞動力,這意味著更少的工作。 隨著機器人和人工智能變得越來越強大,這個過程將會加速。 那些失業的人怎麼辦? 我們如何確保他們有合理的生活水平和社會地位? 最終目標應該是什麼? 隨著人工智能處理越來越多的工作,我們可以而且應該維持基於競爭的經濟模式,還是必須演變為更加合作的模式?

3. 人工智能應該如何使用?

這是最明顯的問題,但也是最難回答的問題,因為它要求我們承認一些我們不願承認的事情:技術在道德上不是中立的——我們設計和製造的東西會產生後果。 我們想生活在一個擁有自主殺手機器人的世界裡嗎? 如果沒有,我們如何阻止它們被創建? 識別面孔和追踪人的技術對我們的自由有危險嗎? 如果是這樣,我們需要對它們施加什麼限制,我們如何執行這些限制?

我們如何確保人工智能帶來更美好的世界?

我們需要談談人工智能

人工智能已經出現了,而且還會繼續發展。 我們可能永遠不會擁有完整的通用人工智能,但可以肯定的是,計算機將在完成廣泛的任務方面變得更加強大。 這將意味著有前景的新技術,如癌症研究和更好的管理,但它也將導致危險的新風險。 那個未來是我們活得更久、更快樂、更充實的生活,還是更黑暗的未來,取決於我們現在做出的決定。


【本文首發於Proto.io,經授權轉載。】