對人工智慧的研究始於上世紀50年代。近幾年,科學界和產業界對它的興趣超越了以往。最近一年半來,谷歌收購了十幾家機械人公司,並正在開發人工智慧的乙個圖騰——無人駕駛汽車;去年,社交**臉譜成立了新的人工智慧實驗室……資料顯示,2023年以來,人工智慧吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智慧技術的322家公司。
隨著機械人技術的不斷演進,人工智慧有可能發展出自己的思想,進而引發人類的「身份危機」。
近來發出類似警告的是兩位頂尖科學家。一位是理論物理學家史蒂芬·霍金,他甚至認為,當人工智慧發展完全,就是人類的末日;另一位是電動汽車品牌特斯拉的掌門人馬斯克,他曾公開表示:「我們要十分小心人工智慧,它可能比核**更危險。」
在2023年的短篇**中,科幻作家isaac asimov提出了機械人的3條準則——工程安全措施和內建的道德準則,以保證機械人會友善對待人類並使人們免於機器末日。這些準則一是機械人不能傷害人類,或無所作為而導致人類受傷害;二是機械人必須聽從命令,除非這些命令違背第一條準則;三是機械人必須保護自身,但這些保護不能與第一和第二條準則相違背。
在平行計算、數位化神經網路、雲技術、大資料以及深度學習演算法等技術的推動下,人工智慧的形態正逐漸顯現:它既不是擁有與人類相似意識的機械人,也不是奇點論(人工智慧與人腦智慧型相容的時刻)者宣稱的超智慧型,而是應用在狹窄的專業領域,如醫學、教育、法律、太空等高度專一的「行家」。隨著人工智慧的發展,人類終有一天將被其取代的恐慌感也應運而生。美國奇點大學人工智慧專案負責人尼爾·傑卡布斯坦早就說過:「要應對即將到來的人工智慧革命,我們需要在數學素養、生態素養尤其是道德素養上不斷自我提公升。」
科學的發展總是出乎我們的預料。在一項技術推廣前,審慎的評估和良好的風險控制是必要的,轉殖技術、大資料、基因測序無不如此。傑卡布斯坦認為,假設人類成功構建了超級計算機,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。走在前沿的人和公司,已經採取了一些行動阻止可能出現的混亂。谷歌在年初收購了以神經系統科學為基礎的人工智慧公司迪普曼德,隨後即成立了「人工智慧安全倫理委員會」,以確保技術安全發展。
我們有充分理由樂**待人工智慧研究。為了遙遠未來可能發生的危險而遏制技術的發展是愚蠢的。但在過去60年中,隨著人工智慧每一次成功地「複製」只有人類才有的行為和能力,人類便不得不對人工智慧進行重新定義,也不得不重新定義「人類」的含義。人工智慧——這個除了人以外最像人的東西,其實是我們心理投射中乙個再好不過的客體。在人工智慧高度發展的未來,人類或許將面對一場「身份危機」:人類到底是偉大還是渺小,自我存在的意義是什麼……這或許將成為人類的困擾。
人工智慧與倫理道德
當阿爾法狗變成了殺人機器,人類會變得有多慘 所以我們需要想辦法去控制人工智慧,畢竟它們是我們創造的,如何更好地控制它們,就必須要掌控機械人的命脈,猶如 三體 之中,如果外星人的侵略到了不可逃避的情況,人類就必須掌控命脈。當然這命脈是什麼?其實我也不知道,但是我相信未來我們會找到,現在我們是可以用法律...
人工智慧與倫理道德
相信 人工智慧 這個詞語在我們的日常生活中越來越常見,從alphago與世界頂尖的圍棋高手的較量之中可以看出其潛力無限。但是在這無限潛力的背後,讓人擔憂的則是它對倫理道德的衝擊。人工智慧是否一定安全?先對人工智慧做乙個簡單的介紹 人工智慧,英文縮寫為ai。它是研究 開發用於模擬 延伸和擴充套件人的智...
人工智慧與倫理道德
人工智慧,可以說是現在最火熱的乙個話題,當社會發展的時候,人們對於一些按照指令為他們服務的機械人 計算機有了更高的要求,即讓他們按照人類的思維去做事情,從而讓他們更加方便我們的生活,雖然他們有著人類的思維,但他們畢竟不是人,而當人工智慧與倫理道德碰面的時候,又會怎麼樣呢?隨著人工智慧革命的來臨,人類...