代數的根本自集合而來,在集合中,對各元素之間的關係引入了「距離」的概念,就稱為拓撲,由拓撲結構變為空間,空間即為座標系,二維歐式幾何情況下就是一般直角座標。多維就變得抽象了。有了空間,就有空間之間的變換,由此產生了線性代數。線性代數就是乙個數在不同空間的表達,用生活中的話叫做「一萬個讀者有一萬個哈姆雷特」、「從不同角度看問題」。因為有時候乙個角度來做數學分析效果不好,所以要換不同角度,這就是線性代數的根本思想。由此產生的概念就是「基」,我理解成「基本的」意思。因為我要表示乙個座標,我需要乙個x軸和乙個y軸。這就是兩個「基」。由於他倆垂直,就叫「正交基」。提問開始:可以有幾個基,基一定要垂直嗎?不垂直的話會咋樣?
言歸正傳。
上述過程的起點在於「距離」。
所以數學家先定義了距離的概念:1、距離是》=0的。2、a到b的距離=b到a的距離。3、a到b的距離+b到c的距離》=a到c的距離。
從距離開始引入各種空間。歐式距離就是 (a-b)的平方開根號。還有各種表示距離的方式,球面距離,街區距離,海明距離等等。
數學要解決的乙個重要問題就是極限,如何用嚴謹的話來描述趨近於0,因為0不能做分母,所以用趨近於0來表示。所以對極限的定義,就是任意e>0.存在n>0,當n>n時,有|xn-a|
所以這個式子被用到很多地方,但是這句話很簡單,只要不想太多就行,一想太多這句話先把自己整糊塗了。
比方說咱倆找乙個數,看誰找的數小,我說「不管你說什麼數,我找的數永遠比你的小一點」。不抬槓的話,從字面上講我肯定贏。不能單純以現在的數學體系去理解以前的人們,因為最開始只有實數,後來發明的無理數,虛數。很多知識都沒有進步到現在這樣的情況。所以一些想當然的,不要被帶入進來。
說說統計學,我們都有很直觀的感受,就是我要想做乙個統計,需要很多的人來填答卷。為什麼少了不行?需要很多,那多到什麼程度?這時候俄羅斯數學家發明了「大數定理」,就是為了說明我需要多大的樣本才能得到我想要的統計結果。由這個定理還弄出很多推論。我之前總是覺得這種東西還能算啊。後來學完才知道不能覺得這是不能計算的,這世界有很多未知的規律,不知道不代表不存在。
學過概率論的知道,我們有很多概率分布。均勻分布,二項分布,泊松分布等等。這些是有一定關係的。他們的關係通過大數定理做橋梁,都和高斯分布聯絡到一起。什麼f分布,x分布,卡方分布。
由於概率統計的發展,也隨著計算機速度的變快,所以現在深度學習的神經網路很火熱。神經網路裡有乙個貝葉斯神經網路。什麼是貝葉斯?首先是個人。貝葉斯的思想就是連起來想問題。比如我餓了,想吃飯,我先要考慮天氣,如果天氣不好,有可能下雨,也有可能不下雨,如果下雨的話,下大雨我就帶傘,小的雨就不帶了。我帶傘的概率是和前邊有關係的。就是這個意思。貝葉斯網路也是說,每個網路節點的概率值是和上乙個有關係。
貝葉斯還是很複雜,如果有一百件事,那最後一件事要和前邊99件事情有關係,這個太複雜了。所以出來乙個很簡單的假設,叫隱含馬爾科夫模型。這個模型做了一件事,假設最後一件事只和前邊的一件事有關係。問題又來了,可不可以和前邊兩件事有關,三件事有關,等等等等?當然可以,如果都有關係了就是貝葉斯模型。谷歌的機器翻譯,之所以厲害,就是用了最後一件事和前邊六件事有關係。這個模型。為什麼是6件?到這個時候都要憑的時實驗結果了。6件和7件比,可能7件更好,但是計算量就變得太大太大。雖然6件事時也不小了。沒辦法谷歌有那麼多伺服器。2023年時發明了mapreduce,就是為了解決一台伺服器算這種東西時間太長,需要很多很多臺一起算。
數學基礎 概率論 JS散度
js散度全稱jensen shannon散度,我們這裡簡稱js散度。在概率統計中,js散度也與前面提到的kl散度一樣具備了測量兩個概率分布相似程度的能力,它的計算方法基於kl散度,繼承了kl散度的非負性等,但有一點重要的不同,js散度具備了對稱性。js散度的公式如下,我們設定兩個概率分布為p和q,另...
專題 概率論從堅持到放棄
定義1.1隨機試驗 在相同條件下對某隨機現象進行的大量重複觀測的實驗。例子1.1.1擲一枚硬幣,觀察正反面出現的情況 例子1.1.2將一枚硬幣連續拋n nn次,觀察正反面出現的情況 定義1.2隨機事件 在隨機試驗中,可能出現也可能不出現,而在大量重複試驗中具有某種規律性的事件叫做隨機事件 簡稱事件 ...
TJOI2015 概率論 組合數學
求 n le 10 9 個節點的二叉樹的葉子節點數期望。設 f i 表示 i 階二叉樹本質不同個數,g i 表示所有本質不同 i 階二叉樹的樹葉個數的和,則有 f i sum f jf quad g i 2 sum f j g 顯然 f i 是卡特蘭數數列,有 f n frac n frac f 然...