什麼是糾纏熵面積定律?
前面已經提到過,截斷了的mps是否有效與糾纏熵的面積定律有關(即糾纏熵面積定律告訴我們你的截斷維數可以怎麼取,我們根據這種方式),而且,我們希望借助糾纏熵面積定律找到一維mps的截斷維數,最後使得mps中的矩陣維數為1×d,d×d
2,d2×χ
\chi
χ,……,χ
\chi
χ×χ\chi
χ,……,χ
\chi
χ×d2,d2×d,d×1。用比較物理的話來說,糾纏熵面積定律就是在熱力學極限下,對於有短程相互作用構成的哈密頓量,如果其基態相對於激發態有能隙,那麼基態的兩個部分(a、b兩部分構成乙個量子體系)之間的糾纏熵正比於它們接觸的表面積,式子為:
s a∣
b∝ld
−1
s_ \propto l^-1}
sa∣b∝
ld−1
l代表a、b接觸部分的周長,d
\mathcal
d代表體系的空間維度,我們知道,量子態的糾纏熵是這麼定義的:
s =−
∑α=0
d−1λ
α2ln
λα
2s=-\sum_^ \lambda_^ \ln \lambda_^
s=−α=0
∑d−1
λα2
lnλα
2λ
\lambda
λα\alpha
α是奇異值,λ
\lambda
λ是奇異譜,有時候為了方便,也會把奇異譜中的奇異值排列成乙個向量
時間演化是什麼?
時間演化顧名思義就是指隨著時間的變化狀態發生了改變,在量子力學上就是物理狀態和觀測量隨時間的變化,再具體點就是態矢隨時間的演化,由此還能引入時間演化算符的概念,就我所知,時間演化算符與薛丁格方程有著一定的聯絡,並且在tebd裡起著一定的作用暫時了解這麼多。
~~二.基態和哈密頓量期望值的求解對應的最優化問題~~
最大本徵值問題定義為:假設矩陣本徵值為實數,求解給定矩陣的最大本徵值及其本徵態,即給定乙個矩陣m,求解歸一化向量v使得:
f =∣
vtmv
∣\mathrm=\left|\mathrm^} \mathrm\right|
f=∣∣v
tmv∣
∣的值極大化,該最優化問題的解為最大本徵態,相應的f值對應最大本徵值。
最大本徵值的冪級數求法如下:
lim k
→∞mk
=γ0k
u(0)
u(0)
t\lim _ m^=\gamma_^ u^ u^
k→∞limm
k=γ0
ku(
0)u(
0)t其中γ
0\gamma_
γ0和u(0
)u^
u(0)
為實對稱矩陣m對應的最大的唯一本徵值和本徵向量,有過線性代數基礎的能夠很好理解這個。
熱力學量即對應物理量的概率平均值,其式子如下:
o (β
)=∑s
1,s2
,…p(
s1,s
2,…;
β)o(
s1,s
2,…)
o(\beta)=\sum_, s_, \ldots} p\left(s_, s_, \ldots ; \beta\right) o\left(s_, s_, \ldots\right)
o(β)=s
1,s
2,…
∑p(
s1,
s2,
…;β)
o(s1
,s2
,…)
其中o是物理值,p是概率,且:
p (s
1,s2
,…;β
)=e−
βe(s
1,s2
,…)z
p\left(s_, s_, \ldots ; \beta\right)=\frac, s_, \ldots\right)}}
p(s1,
s2,
…;β)
=ze−
βe(s
1,s
2,…
)分號前面的s1,s2……表示狀態,後面的β
\beta
β表示倒溫度,為溫度的倒數,z是配分函式,e是能量,配分函式z可以理解為歸一化因子,z=∑
s1,s
2,…e
−βe(
s1,s
2,…)
z=\sum_, s_, \ldots} e^, s_, \ldots\right)}
z=s1,
s2,
…∑e
−βe(
s1,
s2,
…)
張量網路學習筆記 1
看完基本符號後,我認為有必要將某個概念的介紹提前,否則將會難以理解張量網路的圖示,那就是tensor contraction 無對應翻譯,比較好的翻譯可能是張量的縮約 但實際上的含義等同於矩陣中的trace 跡 這是跡的一種張量上的一般化概念.但不等同於張量的跡,張量跡未來會講,可以看做這個cont...
機器學習筆記之Numpy與張量
np.squeeze 張量是矩陣向任意維度的推廣 張量的維度通常叫軸 僅含乙個數字的張量叫標量 0d張量 0d x np.array 12 print x print x.ndim 1d x np.array 12,3,6,14,7 print x print x.ndim 2d x np.arra...
機器學習(八) Overfitting
什麼是overfitting 從overfitting這個詞的字面上看來就是過度擬合,我們知道的,不管什麼東西,過度了一般都是不好的。overfitting 如果我們選取了太多太多的特徵,那麼通過學習的模型將會幾乎完美的擬合我們的訓練集,但是同時這將導致模型不能很好的擬合新的樣本。泛化能力低下 當然...