托馬斯·貝葉斯(thomas bayes)同學的詳細生平在這裡。以下摘一段 wikipedia 上的簡介:
所謂的貝葉斯方法源於他生前為解決乙個「逆概」問題寫的一篇文章,而這篇文章是在他死後才由他的一位朋友發表出來的。在貝葉斯寫這篇文章之前,人們已經能夠計算「正向概率」,如「假設袋子裡面有n個白球,m個黑球,你伸手進去摸一把,摸出黑球的概率是多大」。而乙個自然而然的問題是反過來:「如果我們事先並不知道袋子裡面黑白球的比例,而是閉著眼睛摸出乙個(或好幾個)球,觀察這些取出來的球的顏色之後,那麼我們可以就此對袋子裡面的黑白球的比例作出什麼樣的推測」。這個問題,就是所謂的逆概問題。實際上,貝葉斯當時的**只是對這個問題的乙個直接的求解嘗試,並不清楚他當時是不是已經意識到這裡面包含著的深刻的思想。然而後來,貝葉斯方法席捲了概率論,並將應用延伸到各個問題領域,所有需要作出概率**的地方都可以見到貝葉斯方法的影子,特別地,貝葉斯是機器學習的核心方法之一。這背後的深刻原因在於,現實世界本身就是不確定的,人類的觀察能力是有侷限性的(否則有很大一部分科學就沒有必要做了——設想我們能夠直接觀察到電子的執行,還需要對原子模型爭吵不休嗎?),我們日常所觀察到的只是事物表面上的結果,沿用剛才那個袋子裡面取球的比方,我們往往只能知道從裡面取出來的球是什麼顏色,而並不能直接看到袋子裡面實際的情況。這個時候,我們就需要提供乙個猜測(hypothesis,更為嚴格的說法是「假設」,這裡用「猜測」更通俗易懂一點),所謂猜測,當然就是不確定的(很可能有好多種乃至無數種猜測都能滿足目前的觀測),但也絕對不是兩眼一抹黑瞎矇——具體地說,我們需要做兩件事情:1. 算出各種不同猜測的可能性大小。2. 算出最靠譜的猜測是什麼。第乙個就是計算特定猜測的後驗概率,對於連續的猜測空間則是計算猜測的概率密度函式。第二個則是所謂的模型比較,模型比較如果不考慮先驗概率的話就是最大似然方法。
傳統機器學習平衡了學習結果的有效性與學習模型的可解釋性,為解決有限樣本的學習問題提供了一種框架,主要用於有限樣本情況下的模式分類、回歸分析、概率密度估計等。
傳統機器學習方法共同的重要理論基礎之一是統計學,在自然語言處理、語音識別、影象識別、資訊檢索和生物資訊等許多計算機領域獲得了廣泛應用。
深度學習是建立深層結構模型的學習方法。
典型的深度學習演算法包括:
深度學習又稱為深度神經網路(指層數超過3 層的神經網路)。
深度學習作為機器學習研究中的乙個新興領域,由hinton 等人於2006 年提出。
深度學習源於多層神經網路,其實質是給出了一種將特徵表示和學習合二為一的方式。
深度學習的特點是放棄了可解釋性,單純追求學習的有效性。經過多年的摸索嘗試和研究,已經產生了諸多深度神經網路的模型,其中卷積神經網路、迴圈神經網路是兩類典型的模型。卷積神經網路常被應用於空間性分布資料;迴圈神經網路在神經網路中引入了記憶和反饋,常被應用於時間性分布資料。深度學習框架是進行深度學習的基礎底層框架,一般包含主流的神經網路演算法模型,提供穩定的深度學習api,支援訓練模型在伺服器和gpu、tpu 間的分布式學習,部分框架還具備在包括移動裝置、雲平台在內的多種平台上執行的移植能力,從而為深度學習演算法帶來前所未有的執行速度和實用性。
tensorflow、caffe/caffe2、cntk、mxnet、paddle-paddle、torch/pytorch、theano 等。
傳統機器學習
列1 列2 機器學習 方法 模型評估與選擇 效能度量 偏差與方差 線性模型 線性回歸 邏輯回歸 決策樹 資訊增益 剪枝 c4.5 神經網路 svm 對偶問題 核方法 貝葉斯分類器 極大似然估計 em演算法 整合學習 boosting bagging與隨機森林 深度森林 聚類 降維 k 近鄰 pca ...
談談深度學習和機器學習
嚴格意義上講,深度學習屬於機器學習,所以這裡的機器學習嚴格意義上說,應該叫傳統意義的機器學習 基於概率統計的機器學習。在我讀研的時候,已經判斷機器學習會在後幾年火熱起來,但是,由於alphago的 攪局 這一時間點提前了,著實讓我有些狼狽的追趕,但是好歹也算是找到了機器學習的工作,雖然其中有一些彎路...
機器學習深度學習
機器學習與深度學習,人工智慧 這些領域,如果機器需要向人學習,那麼,人是如何學習的,或者人思維是如何運作的。構 的乙個思維生態 閉環 目前機器學習人工智慧的取得較大發展是依託統計概率論。如果機器需要有自己的ai,那麼是否意味著人在創造生命。因為,生命可以不斷的延續。那麼什麼是生命,生命由那些構成,構...