這種演算法不太容易理解,網上有很多解釋,但讀起來都很費勁。直到讀到jake boxer的文章,我才真正理解這種演算法。下面,我用自己的語言,試圖寫一篇比較好懂的kmp演算法解釋。
首先,字串"bbc abcdab abcdabcdabde"的第乙個字元與搜尋詞"abcdabd"的第乙個字元,進行比較。因為b與a不匹配,所以搜尋詞後移一位。
因為b與a不匹配,搜尋詞再往後移。
就這樣,直到字串有乙個字元,與搜尋詞的第乙個字元相同為止。
接著比較字串和搜尋詞的下乙個字元,還是相同。
直到字串有乙個字元,與搜尋詞對應的字元不相同為止。
這時,最自然的反應是,將搜尋詞整個後移一位,再從頭逐個比較。這樣做雖然可行,但是效率很差,因為你要把"搜尋位置"移到已經比較過的位置,重比一遍。
怎麼做到這一點呢?可以針對搜尋詞,算出一張《部分匹配表》(partial match table)。這張表是如何產生的,後面再介紹,這裡只要會用就可以了。
已知空格與d不匹配時,前面六個字元"abcdab"是匹配的。查表可知,最後乙個匹配字元b對應的"部分匹配值"為2,因此按照下面的公式算出向後移動的位數:
移動位數 = 已匹配的字元數 - 對應的部分匹配值因為 6 - 2 等於4,所以將搜尋詞向後移動4位。
11.因為空格與a不匹配,繼續後移一位。
12.逐位比較,直到發現c與d不匹配。於是,移動位數 = 6 - 2,繼續將搜尋詞向後移動4位。
13.14.
下面介紹《部分匹配表》是如何產生的。
首先,要了解兩個概念:"字首"和"字尾"。 "字首"指除了最後乙個字元以外,乙個字串的全部頭部組合;"字尾"指除了第乙個字元以外,乙個字串的全部尾部組合。
15."部分匹配值"就是"字首"和"字尾"的最長的共有元素的長度。以"abcdabd"為例,
- "a"的字首和字尾都為空集,共有元素的長度為0;16.- "ab"的字首為[a],字尾為[b],共有元素的長度為0;
- "abc"的字首為[a, ab],字尾為[bc, c],共有元素的長度0;
- "abcd"的字首為[a, ab, abc],字尾為[bcd, cd, d],共有元素的長度為0;
- "abcda"的字首為[a, ab, abc, abcd],字尾為[bcda, cda, da, a],共有元素為"a",長度為1;
- "abcdab"的字首為[a, ab, abc, abcd, abcda],字尾為[bcdab, cdab, dab, ab, b],共有元素為"ab",長度為2;
- "abcdabd"的字首為[a, ab, abc, abcd, abcda, abcdab],字尾為[bcdabd, cdabd, dabd, abd, bd, d],共有元素的長度為0。
"部分匹配"的實質是,有時候,字串頭部和尾部會有重複。比如,"abcdab"之中有兩個"ab",那麼它的"部分匹配值"就是2("ab"的長度)。搜尋詞移動的時候,第乙個"ab"向後移動4位(字串長度-部分匹配值),就可以來到第二個"ab"的位置。
KMP 演算法原理解析與 C 實現
kmp 演算法包含兩個部分 利用 pattern 構建 next 陣列 利用 next 資料去匹配長字串 使用 kmp 演算法的好處是,對於被匹配的長字串,我們始終不需要往回走。next 陣列中的每乙個元素,比如說 next i 代表的是在 pattern 中第 i 個位置之前存在的字首和字尾相等的...
EM演算法原理解析
em演算法,即最大期望演算法 expectation maximization algorithm,又譯期望最大化演算法 是一種迭代演算法,用於含有隱變數 latent variable 的概率引數模型的最大似然估計或極大後驗概率估計。em演算法應用於高斯混合模型 gmm 聚類 隱式馬爾科夫演算法 ...
KMP演算法解析
日期 2013年5月 1日 字串匹配是計算機的基本任務之一。舉例來說,有乙個字串 bbc abcdab abcdabcdabde 我想知道,裡面是否包含另乙個字串 abcdabd 許多演算法可以完成這個任務,knuth morris pratt演算法 簡稱kmp 是最常用的之一。它以三個發明者命名,...