基於張量網路的機器學習(八)

2021-10-24 08:51:08 字數 2446 閱讀 2798

什麼是糾纏熵面積定律?

前面已經提到過,截斷了的mps是否有效與糾纏熵的面積定律有關(即糾纏熵面積定律告訴我們你的截斷維數可以怎麼取,我們根據這種方式),而且,我們希望借助糾纏熵面積定律找到一維mps的截斷維數,最後使得mps中的矩陣維數為1×d,d×d

2,d2×χ

\chi

χ,……,χ

\chi

χ×χ\chi

χ,……,χ

\chi

χ×d2,d2×d,d×1。用比較物理的話來說,糾纏熵面積定律就是在熱力學極限下,對於有短程相互作用構成的哈密頓量,如果其基態相對於激發態有能隙,那麼基態的兩個部分(a、b兩部分構成乙個量子體系)之間的糾纏熵正比於它們接觸的表面積,式子為:

s a∣

b∝ld

−1

s_ \propto l^-1}

sa∣b​∝

ld−1

l代表a、b接觸部分的周長,d

\mathcal

d代表體系的空間維度,我們知道,量子態的糾纏熵是這麼定義的:

s =−

∑α=0

d−1λ

α2ln⁡

λα

2s=-\sum_^ \lambda_^ \ln \lambda_^

s=−α=0

∑d−1

​λα2

​lnλα

2​λ

\lambda

λα\alpha

α是奇異值,λ

\lambda

λ是奇異譜,有時候為了方便,也會把奇異譜中的奇異值排列成乙個向量

時間演化是什麼?

時間演化顧名思義就是指隨著時間的變化狀態發生了改變,在量子力學上就是物理狀態和觀測量隨時間的變化,再具體點就是態矢隨時間的演化,由此還能引入時間演化算符的概念,就我所知,時間演化算符與薛丁格方程有著一定的聯絡,並且在tebd裡起著一定的作用暫時了解這麼多。

~~二.基態和哈密頓量期望值的求解對應的最優化問題~~

最大本徵值問題定義為:假設矩陣本徵值為實數,求解給定矩陣的最大本徵值及其本徵態,即給定乙個矩陣m,求解歸一化向量v使得:

f =∣

vtmv

∣\mathrm=\left|\mathrm^} \mathrm\right|

f=∣∣​v

tmv∣

∣​的值極大化,該最優化問題的解為最大本徵態,相應的f值對應最大本徵值。

最大本徵值的冪級數求法如下:

lim ⁡k

→∞mk

=γ0k

u(0)

u(0)

t\lim _ m^=\gamma_^ u^ u^

k→∞lim​m

k=γ0

k​u(

0)u(

0)t其中γ

0\gamma_

γ0​和u(0

)u^

u(0)

為實對稱矩陣m對應的最大的唯一本徵值和本徵向量,有過線性代數基礎的能夠很好理解這個。

熱力學量即對應物理量的概率平均值,其式子如下:

o (β

)=∑s

1,s2

,…p(

s1,s

2,…;

β)o(

s1,s

2,…)

o(\beta)=\sum_, s_, \ldots} p\left(s_, s_, \ldots ; \beta\right) o\left(s_, s_, \ldots\right)

o(β)=s

1​,s

2​,…

∑​p(

s1​,

s2​,

…;β)

o(s1

​,s2

​,…)

其中o是物理值,p是概率,且:

p (s

1,s2

,…;β

)=e−

βe(s

1,s2

,…)z

p\left(s_, s_, \ldots ; \beta\right)=\frac, s_, \ldots\right)}}

p(s1​,

s2​,

…;β)

=ze−

βe(s

1​,s

2​,…

)​分號前面的s1,s2……表示狀態,後面的β

\beta

β表示倒溫度,為溫度的倒數,z是配分函式,e是能量,配分函式z可以理解為歸一化因子,z=∑

s1,s

2,…e

−βe(

s1,s

2,…)

z=\sum_, s_, \ldots} e^, s_, \ldots\right)}

z=s1​,

s2​,

…∑​e

−βe(

s1​,

s2​,

…)

張量網路學習筆記 1

看完基本符號後,我認為有必要將某個概念的介紹提前,否則將會難以理解張量網路的圖示,那就是tensor contraction 無對應翻譯,比較好的翻譯可能是張量的縮約 但實際上的含義等同於矩陣中的trace 跡 這是跡的一種張量上的一般化概念.但不等同於張量的跡,張量跡未來會講,可以看做這個cont...

機器學習筆記之Numpy與張量

np.squeeze 張量是矩陣向任意維度的推廣 張量的維度通常叫軸 僅含乙個數字的張量叫標量 0d張量 0d x np.array 12 print x print x.ndim 1d x np.array 12,3,6,14,7 print x print x.ndim 2d x np.arra...

機器學習(八) Overfitting

什麼是overfitting 從overfitting這個詞的字面上看來就是過度擬合,我們知道的,不管什麼東西,過度了一般都是不好的。overfitting 如果我們選取了太多太多的特徵,那麼通過學習的模型將會幾乎完美的擬合我們的訓練集,但是同時這將導致模型不能很好的擬合新的樣本。泛化能力低下 當然...