近年來,人工智慧這個話題大熱。一些科幻電影中,人工智慧的發展最終無法抑制,成為了人類文明的終結者。一些大牛們,如比爾蓋茨、霍金,都對人工智慧的發展提出了警告;不過也有人認為,人工智慧在現在階段並不是什麼威脅。
2023年,spacex的ceo elon musk發推說:「bostrom的《超級智慧型(superintelligence)》非常值得一讀。對待ai,我們需要小心翼翼。」同年,劍橋大學的宇宙學家史蒂芬·霍金(stephen hawking)在接受bbc的訪問時說:「完全的人工智慧(full artificial intelligence)的發展可能會導致人類的終結。」微軟聯合創始人比爾·蓋茨(bill gates)也警告說:「關於ai,我持謹慎懷疑態度。」
關於ai帶來的世界末日將如何展開,計算機科學家eliezer yudkowsky在2023年發表的《全球災難風險(global catastrophic risks)》中提出:ai在未來從單細胞生物發展到人類智力水平的可能性有多大呢?他回答道:「形成乙個物理意義上的大腦是可能的,其計算的速度是人類大腦的一百萬倍....如果人腦因此而加速,主觀上一年的思考將在31秒內就完成了,一千年將在八個半小時內就過去了。」yudkowsky認為,如果我們不這麼做就太晚了:「人工智慧所執行的時間維度與我們不同,當你的神經元完成思考說『我應該做這件事情』時,你已經錯過時機了。」
牛津大學哲學家尼克·博斯特羅姆(nick bostrom)在他的《超級智慧型(superintelligence)》中提出所謂的回形針最大化的思想實驗:乙個ai被設計來製造回形針,並且在耗盡其最初的原材料**之後,它將利用在其可達範圍內的任何可用原子,包括人類。正如他在2023年的一篇**中所描述的那樣,從那時開始「首先轉化整個地球,為回形針製造設施增加空間」。短時間內,整個宇宙都由回形針和回形針製造器組成。
對此,我表示懷疑。首先,所有這樣的末日情景都涉及一長串的「如果-那麼(if-then)」意外事件,在任何點的失敗都會推到所謂的世界末日。西英格蘭布里斯托大學的電氣工程教授艾倫·溫菲爾德(alan winfield)在2023年的一篇文章中這樣說:「如果我們成功地構建與人類相同的ai,如果ai對它如何工作有著充分理解,如果它成功地改善自身成為超智慧型ai,如果這個超級ai意外或惡意地開始消耗資源,如果我們不能拔插頭斷電,那麼,是的,我們可能有問題。這種危險,不是不可能,是不太可能發生。」
第三,ai的末日情景通常基於自然智慧型和人工智慧之間的錯誤對比。哈佛大學實驗心理學家steven pinker在對2023年edge.org年度問題「你對機器思考有什麼看法」的回答中闡明:「ai反烏托邦專案將乙個狹隘的阿爾法男性心理學投射到智力概念上。他們認為,超人類的智慧型機械人將『放棄他們的主人或接管世界』作為自己的發展目標。」同樣地,pinker說道,「人工智慧將沿著雌系自然發展——能夠完全解決問題,但不會想要消滅無辜或支配文明。「
第四,暗示計算機將「想要」做某事(例如將世界變成回形針)就等同於ai有情感。正如科學作家michael chorost所言:「ai真的想要做某事時,它將會生活在乙個有獎勵和懲罰的宇宙中,這其中就包括來自我們對不良行為的懲罰。」
鑑於歷史上對世界末日的幾乎為0的**率,加上人工智慧在幾十年來緩慢發展,我們有足夠的時間建立故障安全系統,防止任何這樣的人工智慧所帶來的世界末日。
人工智慧快速發展,目前的人工智慧處於什麼階段?
如今人工智慧處於什麼階段?卷積神經網路 cnns 具有分層結構,通過 訓練過的 卷積濾波器將影象取樣到乙個低解析度的對映中,該對映表示每個點上卷積運算的值。從影象中來看,它是從高分辨畫素到特徵 邊緣 圓形 再到粗糙特徵 臉上的鼻子 眼睛 嘴唇 然後再到能夠識別影象內容的完整連線層。cnns很酷的一點...
人工智慧基礎 什麼是人工智慧
人工智慧是一門研究如何構造智慧型機器 智慧型計算機 或智慧型系統,使它們能夠模擬 延伸和拓展人類智慧型的學科。個人理解就是 研究人的智慧型,並且把人的智慧型放到機器上面,代替人思考。人工智慧發展簡史 孕育階段 1.亞里斯多德三段論 2.英國哲學家培根 知識就是力量。3.萊布尼茨 建立一種通用的符號語...
人工智慧入門01 什麼是人工智慧
圖靈測試 turing test 由艾倫 圖靈 alan turing 在1950年發明,指測試者與被測試者 乙個人和一台機器 隔開的情況下,通過一些裝置 如鍵盤 向被測試者隨意提問。測試滿足三個條件 進行多次測試後,如果機器讓平均每個詢問者做出超過30 的誤判,那麼這台機器就通過了測試,並被認為具...