這個問題似乎並不難。正如位於達特茅斯的科學家寫道:「如果讓一組精心挑選的科學家在整個夏天的時間裡坐在一起商討,我們認為他們可以在乙個或多個這些問題上取得重大進展。」我想順便說一下的是,這項研究提案中包含了人工智慧一詞最早使用的部分。他們對此有許多想法,例如:模擬人類大腦的神經元模式可以實現和教給機器關於人類語言的抽象規則的重要性。
科學家對此持樂觀的態度,並且不出意外的是,他們的努力最終得到了回報。 在這之前,他們有能理解理解人類語言的電腦程式,而它可以解決代數問題。而人們很自信地**,在未來二十年內,人類將會建造出乙個人工智慧機器。
我們可以**的是,在人工智慧產業出現之後不久,真正的仿生人工智慧機械人也將會出現,並且與我們越來越像。事實上,它的推測可以從圖靈關於「思維機器」的第一篇**中說起,他在**中**說,圖靈測試(一種能讓人類相信機器有著人類特性的測試)將在50年之後得到正式通過,這種機器有可能在2023年左右出現。當然,在現在人們,例如著名的科學家ray kurzweil,仍然在**未來20年內人工智慧可能會發生的進展。在當今很多不同的專家和分析調查裡,你幾乎想知道人工智慧研究人員是不是僅僅試圖給出一種自動答覆:「我早就知道了你即將要問的問題了,不或者是,我不能真正**到你要說的。」
試圖**人類同級別的人工智慧出現的確切日期的問題在於我們實際上根本不知道實現該目標還有多遠。這不像摩爾定律。摩爾定律講的是:每兩年機器在資訊處理能力可以翻一倍,這可以對乙個非常具體的現象做出非常具體的**。從中我們可以大致了解如何達到目標,例如改進矽晶圓的工程設計:我們知道我們並不處於我們目前方法的基本限制(至少,直到您嘗試在原子尺度上改造晶元)。但人工智慧和我們以上所說的不能進行模擬,它們是完全不一樣的東西。
常見的錯誤
stuart armstrong的調查研究了關於人工智慧發展趨勢的這些**。具體來說,他主要在尋找兩個主要的認知偏差。首先是人工智慧專家**真正的人工智慧會在他們死亡之前出現(並使他們避免死亡)。這就是人們對kurzweil所提出的「書呆子的狂怒」的批評,因為他們認為kurzweil的這類預言是出於對死亡的恐懼,對生命不朽的渴望,而且根本上是非理性的。這使創造超級智慧型的能力被視為一種有著個人信仰的專案。當然,這裡也有來自人工智慧發展領域工作人員對於當今人工智慧所遇到的的挫折和侷限性的批判意見。
其次,人們大部分認為15到20年的時間內真正的人工智慧將會出現在大眾視野內。這個時間段其實足以讓人們相信,他們正在做一些可以很快證明是新一次革命的東西(人們對努力循規蹈矩的東西印象不會很深刻,幾個世紀以來都是如此),而且目前為止並沒有說這些證明是錯誤的。在這兩種偏差中,armstrong研究中對於後者擁有比較多的資料資訊?- 人們非常樂意選擇在死亡後**人工智慧的發展趨勢,儘管大多數人不這樣做,但在歷史上的**中存在明確的「15-20年後」偏差。
衡量進展
armstrong指出,如果你想評估一種具體的**的可行性,在這之前有很多引數你可以進行參考。例如,通過模擬人腦來開發人類智慧型的想法至少會為您提供乙個清晰的途徑,讓您評估進展。每當我們得到更詳細的大腦地圖,或者成功模擬另一部分大腦時,我們就可以看出,我們正朝著這個最終目標前進,而這個目標可能在人類級別的人工智慧出現之後最終達成。在這條道路上我們可能不到20年就可以走完,但至少我們可以用科學的方法評估進展來鞏固這些。
如果乙個網路足夠複雜且給予足夠的處理能力就會「出現」人工智慧的人相比,這可能是我們想象的進化過程中出現的人類智慧型和所謂的「意識」 -- 儘管人類的進化已有數十億年,而不僅僅是數十年。但問題在於我們從來沒有經驗證據:我們從來沒有見過意識從乙個複雜的網路中體現出來。我們不僅不知道這是否可能,我們也不知道我們距離它有多遠,因為我們甚至無法衡量它的發展潛力與價值。
要理解哪些任務對於人工智慧的發展來說是艱難的,從其誕生之日直到今天甚至以後還有很長的路要走。只要看一下原來的研究方案,從理解人類的語言,到隨機性和創造性,以及自我完善能力都是可以進行相提並論的。我們有很好的自然語言處理,但是我們的計算機能理解他們正在處理什麼嗎?我們有人工智慧,它可以隨機變化是「創意」,但它本身具有創造性嗎?奇點往往依賴的那種指數式的自我改善過程似乎距離目標很遙遠。
我們也很難理解智慧型的含義。例如,ai專家一直低估人工智慧下圍棋的能力。許多人認為,無論是在2023年,甚至到2023年人類仍舊會探尋此問題。但最後僅僅花了兩年,而不是十二年。但是這是否意味著人工智慧能夠寫出「偉大的美國**」呢?這是否意味著更接近於從概念上理解周圍的世界呢?或者說這是否意味著它更接近我們所說的人類級別的智慧型體?這些暫且無法解釋清楚。
不是人類,但比人類更聰明
但也許我們一直在錯誤的角度上看待這類問題。例如,圖靈測試還沒有通過,人工智慧在談話中無法說服人類其是能與人類相似的智慧型體。當然還有計算能力,也許很快就能執行模式識別和駕駛汽車等其他任務的能力遠遠超過人的水平。由於「較弱」的人工智慧演算法做出更多的決定,物聯網傳播者和技術樂觀主義者試圖找到更多的方法來提供更多的資料或者更多的演算法,所以這種「人工智慧」對社會的影響只能是增長的趨勢。
也許我們還沒有對人類智慧型定下相關的管理機制,那是因為我們也不知道我們能用現有的演算法影響它多久。國家自動化將會擾亂社會並從根本上改變關於它的危險調查,因為我們對於一些含糊不清的超級智慧型做出相關舉動的假設並不多。
那麼有些人指出我們應該為其他原因擔心人工智慧的誕生。只是因為我們不能確定人類同等級別的人工智慧是否會在本世紀被開發出來,或者說它永遠不會存在於我們的生活中,但這並不意味著我們不應該為關於對其樂觀的**結果是正確的可能性做準備。我們需要確保將人的價值觀編入這些演算法中,以便他們理解人生的價值,並以正確的品行道德為標準的方式行事。
《未來人類繁榮計畫》的作者菲爾·托雷斯(phil torres)在接受我的採訪時表達了這一點。他指出,如果我們突然決定將智慧型機械人融入我們生活,作為乙個不斷發展的社會,我們在未來必須解決關於此類道德問題(決定將機器融入我們生活的對與錯)。而我們到時候可以做到這一點嗎?
什麼時候我們考慮使用指令碼
指令碼的架構 指令碼宿主 在其中執行 iis,ie,wsh wscript,cscript 指令碼引擎 解釋程式 windows作業系統內建的 vbscript 與jscript 指令碼可以呼叫的物件模型 wsh,wmi,adsi,ado,cdo等 wsh 可以呼叫com物件,使用命令列,呼叫she...
我們什麼時候需要函式隱藏
technorati 標籤 c new,方法隱藏 肖建的一篇博文引發了我的思考。我們應該什麼時候使用函式隱藏 new關鍵字,不明白的請移步msdn public class base public class a base public class b base public class testc...
雜談 什麼時候你才能夠跳槽
由於lz最近看書比較少,大部分時候在寫自己的框架以及折騰工作的事情,所以最近技術類的文章就相對比較少了。當然,lz最近的文章總量也在直線下滑,不得不說,人在江湖,身不由己。今天和各位來談談跳槽的事,lz也工作兩年半了,雖說時間不算太長,但中間也見過不少跳槽的同事,有的時候,或許是一種無奈,但更多的卻...