TT分解和矩阵乘积态
- 一、Tensor-train分解(TT分解)
- 1. 定义
- 2. TT低秩近似
- 二、矩阵乘积态(MPS)
- 1. 定义
- 2. 矩阵乘积态与量子纠缠
- 3. 矩阵乘积态的规范自由度与正交形式
我是一只正在不断学习、希望早日成为小白的小小白,有什么错误欢迎大家批评指正,喜欢的请点个赞哦!
一、Tensor-train分解(TT分解) 1. 定义 给定N阶张量,将其分解成N个二阶或三阶张量的缩并形式:
T S 1 S 2 … S N = ∑ a 1 a 2 … a N ? 1 A S 1 a 1 ( 1 ) A S 2 a 1 a 2 ( 2 ) … A S N ? 1 a N ? 2 a N ? 1 ( N ? 1 ) A S N ( N ) = A S 1 : ( 1 ) A S 2 : ? ( 2 ) … A S N ? 1 : : ( N ? 1 ) A S N : ( N ) T T_{S_{1} S_{2} \ldots S_{N}}=\sum_{a_{1} a_{2} \ldots a_{N-1}} A_{S_{1} a_{1}}^{(1)} A_{S_{2} a_{1} a_{2}}^{(2)} \ldots A_{S_{N-1} a_{N-2} a_{N-1}}^{(N-1)} A_{S_{N}}^{(N)}=A_{S_{1}:}^{(1)} A_{S_{2}: \cdots}^{(2)} \ldots A_{S_{N-1}::}^{(N-1)} A_{S_{N}:}^{(N) \mathrm{T}} TS1?S2?…SN??=a1?a2?…aN?1?∑?AS1?a1?(1)?AS2?a1?a2?(2)?…ASN?1?aN?2?aN?1?(N?1)?ASN?(N)?=AS1?:(1)?AS2?:?(2)?…ASN?1?::(N?1)?ASN?:(N)T?
其中, { a n } \left\{ {{a}_{n}} \right\} {an?}被称为几何或辅助指标, { s n } \left\{ {{s}_{n}} \right\} {sn?}被称为开放或物理指标。
【张量网络算法基础|张量网络基础算法(四、TT分解和矩阵乘积态)】tensor-train直译过来就是张量火车,正如下图我们所看到的那样,一个大的张量被分解成了一个个小张量缩并的形式,就像我们平时所看到的一节节火车的车厢,所以不得不说前人还是很富有想象力的。为了方便,在后面的学习中我们会把Tensor-train分解简称为TT分解。
文章图片
TT分解可以通过N-1次奇异值分解实现。先把第一个指标看成一个指标,后面三个指标看成一个大指标,这样子就得到一个二阶张量(矩阵),将其进行奇异值分解,左边就是奇异值分解后得到的 U U U,右边就是 Λ V ? \Lambda {{V}^{\dagger }} ΛV?。同理对右边的张量按照上述方法继续进行奇异值分解……例如四阶张量的TT分解,如下图:
文章图片
经过N-1次奇异值分解,一个N阶的张量就被分解成了N个小张量。但是严格的TT分解不能解决指数墙的问题,辅助指标会随着奇异值分解的次数呈指数增长。那么这个时候怎么解决这个问题呢?可以先思考下,答案后面揭晓。
文章图片
2. TT低秩近似 TT秩的定义
每一次进行奇异值分解所得到的非0奇异值的个数(辅助指标的维数),因为N阶张量要进行N-1次奇异值分解,所以一个N阶张量的TT秩包含N-1个数。
文章图片
TT低秩近似
令辅助指标有一个上限,辅助指标的上限χ \chi χ 称为截断维数或裁剪维数:
min ? { dim ? ( a n ) ≤ χ } ∣ T s 1 s 2 … s N ? ∑ a 1 a 1 … a N ? 1 A s 1 a 1 ( 1 ) A s 2 ( 2 ) a 1 a 2 ? A s N ? 1 a N ? 2 a N ? 1 ( N ? 1 ) A S N a N ? 1 ( N ) \min _{\left\{\operatorname{dim}\left(a_{n}\right) \leq \chi\right\}} \mid T_{s_{1} s_{2} \ldots s_{N}}-\sum_{a_{1} a_{1} \ldots a_{N-1}} A_{s_{1} a_{1}}^{(1)} A_{s_{2}}^{(2)} a_{1} a_{2} \cdots A_{s_{N-1} a_{N-2} a_{N-1}}^{(N-1)} A_{S_{N} a_{N-1}}^{(N)} {dim(an?)≤χ}min?∣Ts1?s2?…sN???a1?a1?…aN?1?∑?As1?a1?(1)?As2?(2)?a1?a2??AsN?1?aN?2?aN?1?(N?1)?ASN?aN?1?(N)?
获得TT秩近似最简单的算法之一就是每次进行奇异值分解后将多于截断维数的奇异值和对应的奇异向量进行裁剪,将辅助指标的维数裁剪为χ \chi χ ,简而言之就是在进行TT分解时不断利用奇异值分解的低秩近似,是不是超级容易就解决了一个问题。
随机生成10×10×10×10的张量进行不同截断维数的TT低秩近似的误差(下图为χ \chi χ 取30到60)
文章图片
附上代码,没事可以自己去试试,感觉有点神奇呢!(看我这没见过世面的样子U?ェ?U):
import numpy as np
import BasicFun as bf
import matplotlib.pyplot as plt# 考虑(2, 2, 2, 2, 2, 2, 2, 2, 2, 2)的8阶张量,进行无裁剪TT分解,查看分解后辅助指标的维数
x = np.random.randn(2, 2, 2, 2, 2, 2, 2, 2, 2, 2)
tensors = bf.ttd(x)[0]
# 读取辅助指标维数
a_dims = list()
for x in tensors[:-1]:
a_dims.append(x.shape[-1])
print('The ancillary dimensions of the TT form = ')
print(a_dims)# 考虑(10, 10, 10, 10)的张量,计算不同截断维数下的误差
y = np.random.randn(10, 10, 10,10)
err = list()
z0 = np.linalg.norm(y)
for chi in range(30, 61,1):
tensors = bf.ttd(y, chi)[0]
y1 = bf.tt_product(tensors)
err.append(np.linalg.norm(y - y1) / z0)
print('\nThe error with different dimension cut-off = ')
print(err)
plt.plot(np.arange(30, 61,1), err, marker='x')
plt.xlabel(r'dimension cut-off $\chi$')
plt.ylabel('relative error')
plt.show()
二、矩阵乘积态(MPS) 1. 定义 一般而言,矩阵乘积态(MPS)定义为系数矩阵满足TT形式的量子态:
∣ φ ? = ∑ s 1 s 2 … s N φ s 1 s 2 … s N ∏ ? n = 1 N ∣ s n ? |\varphi\rangle=\sum_{s_{1} s_{2} \ldots s_{N}} \varphi_{s_{1} s_{2} \ldots s_{N}} \prod_{\otimes n=1}^{N}\left|s_{n}\right\rangle ∣φ?=s1?s2?…sN?∑?φs1?s2?…sN???n=1∏N?∣sn??
在不引起误解的情况下矩阵乘积态也可以直接理解为系数矩阵:
φ s 1 s 2 … s N = ∑ a 1 a 1 … a N ? 1 A s 1 a 1 ( 1 ) A s 2 a 1 a 2 ( 2 ) … A s N ? 1 a N ? 2 a N ? 1 ( N ? 1 ) A S N a N ? 1 ( N ) = A s 1 : ( 1 ) A S 2 : ? ( 2 ) … A S N ? 1 : ( N ? 1 ) A S N : ( N ) T \varphi_{s_{1} s_{2} \ldots s_{N}}=\sum_{a_{1} a_{1} \ldots a_{N-1}} A_{s_{1} a_{1}}^{(1)} A_{s_{2} a_{1} a_{2}}^{(2)} \ldots A_{s_{N-1} a_{N-2} a_{N-1}}^{(N-1)} A_{S_{N} a_{N-1}}^{(N)}=A_{s_{1}:}^{(1)} A_{S_{2}: \cdots}^{(2)} \ldots A_{S_{N-1}:}^{(N-1)} A_{S_{N}:}^{(N) \mathrm{T}} φs1?s2?…sN??=a1?a1?…aN?1?∑?As1?a1?(1)?As2?a1?a2?(2)?…AsN?1?aN?2?aN?1?(N?1)?ASN?aN?1?(N)?=As1?:(1)?AS2?:?(2)?…ASN?1?:(N?1)?ASN?:(N)T?
矩阵乘积态的两种边界条件分别为开发边界条件(OBC)和周期边界条件(PBC),如下图:
文章图片
在TT分解中,量子态参数个数随N指数增加,满足:
???? # ????( ∣ φ ? ) ~ O ( d N ) \text{ }\!\!\#\!\!\text{ }\left( \left| \varphi \right\rangle \right)\sim O\left( {{d}^{N}} \right)# (∣φ?)~O(dN)
在MPS中,给定辅助指标截断维数为 ,则MPS包含参数的个数随N线性增加,满足:
???? # ????( M P S ) ~ O ( N d χ 2 ) \text{ }\!\!\#\!\!\text{ }\left( MPS \right)\sim O\left( Nd{{\chi }^{2}} \right)# (MPS)~O(Ndχ2)
对于MPS分解,我们并不需要知道指数复杂的量子系数是什么,也不需要进行TT分解,而是直接假设基态具备MPS的形式,直接处理MPS中的局部张量,从而绕开指数墙的问题,但是这样子会引入误差。并且,在求基态时我们是在并不知道基态是什么的情况下直接假设基态是具有给定截断维数的MPS态,因此我们并不能确定这样的MPS态可以有效的描述基态。我们可以从奇异谱入手定义刻画MPS的有效性,而MPS态对应的奇异谱刚好就是量子态的量子纠缠谱,由此引入量子纠缠。有没有很懵,don’t worry,继续往下看!
文章图片
2. 矩阵乘积态与量子纠缠 斯密特分解与纠缠谱:给定N自旋的量子态
∣ φ ? = ∑ s 1 s 2 ? s N φ s 1 s 2 ? s N ∏ ? n = 1 N ∣ s n ? \left| \varphi \right\rangle =\sum\nolimits_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}{{{\varphi }_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}}\prod\limits_{\otimes n=1}^{N}{\left| {{s}_{n}} \right\rangle }} ∣φ?=∑s1?s2??sN??φs1?s2??sN???n=1∏N?∣sn??
将自旋分成两部分:
{ s n } = ( s 1 , s 2 , ? ? , s K ) ∪ ( s K + 1 , ? ? , s N ) \left\{ {{s}_{n}} \right\}=\left( {{s}_{1}},{{s}_{2}},\cdots ,{{s}_{K}} \right)\cup ({{s}_{K+1}},\cdots ,{{s}_{N}}) {sn?}=(s1?,s2?,?,sK?)∪(sK+1?,?,sN?)
两部分不能为空,将前面一部分看成一个指标,后面一部分看成一个指标,这样就得到一个二阶张量(矩阵),对矩阵的系数进行奇异值分解:
φ s 1 s 2 ? s N = ∑ a = 0 D ? 1 U s 1 s 2 ? s K , a Λ a V s K + 1 ? s N , a ? {{\varphi }_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}}=\sum\limits_{a=0}^{D-1}{{{U}_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{K}},a}}{{\Lambda }_{a}}}V_{{{s}_{K+1}}\cdots {{s}_{N}},a}^{*} φs1?s2??sN??=a=0∑D?1?Us1?s2??sK?,a?Λa?VsK+1??sN?,a??
对系数进行奇异值分解对应于对量子态做分解:
∣ φ ? = ∑ a = 0 D ? 1 Λ a ∣ U a ? ∣ V a ? \left| \varphi \right\rangle =\sum\limits_{a=0}^{D-1}{{{\Lambda }_{a}}\left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle } ∣φ?=a=0∑D?1?Λa?∣Ua?∣Va?
∣ U a ? ∣ V a ? \left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle ∣Ua?∣Va?之间进行直积, Λ a {{\Lambda }_{a}} Λa?可看成权重系数。该分解被称为量子态的斯密特分解,量子态的斯密特分解对应于系数矩阵的奇异值分解, Λ \Lambda Λ称为量子态的纠缠谱。其中 ∣ U a ? ∣ V a ? \left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle ∣Ua?∣Va?为D个量子态,满足:
∣ U a ? = ∑ s 1 s 2 ? s K D ? 1 U s 1 s 2 ? s K , a ∏ ? n = 1 K ∣ s n ? \left| {{U}^{a}} \right\rangle =\sum\limits_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{K}}}^{D-1}{{{U}_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{K}},a}}\prod\limits_{\otimes n=1}^{K}{\left| {{s}_{n}} \right\rangle }} ∣Ua?=s1?s2??sK?∑D?1?Us1?s2??sK?,a??n=1∏K?∣sn??
∣ V a ? = ∑ s 1 s 2 ? s K D ? 1 V ? s K + 1 ? s N , a ∏ ? n = 1 K ∣ s n ? \left| {{V}^{a}} \right\rangle =\sum\limits_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{K}}}^{D-1}{{{V}^{*}}_{{{s}_{K+1}}\cdots {{s}_{N}},a}\prod\limits_{\otimes n=1}^{K}{\left| {{s}_{n}} \right\rangle }} ∣Va?=s1?s2??sK?∑D?1?V?sK+1??sN?,a??n=1∏K?∣sn??
由于
? φ ∣ φ ? =1 , ∣ φ ? = ∑ a = 0 D ? 1 Λ a ∣ U a ? ∣ V a ? \left\langle \varphi \right|\left. \varphi \right\rangle \text{=1},\left| \varphi \right\rangle \text{=}\sum\limits_{a=0}^{D-1}{{{\Lambda }_{a}}\left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle } ?φ∣φ?=1,∣φ?=a=0∑D?1?Λa?∣Ua?∣Va?
所以
? φ ∣ φ ? = ∑ a = 0 D ? 1 Λ a 2 ? V a ∣ ? U a ∣ U a ? ∣ V a ? = ∑ a = 0 D ? 1 Λ a 2 =1 \left\langle \varphi \right|\left. \varphi \right\rangle \text{=}\sum\limits_{a=0}^{D-1}{{{\Lambda }_{a}}^{\text{2}}\left\langle {{V}^{a}} \right|\left\langle {{U}^{a}} \right.\left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle }\text{=}\sum\limits_{a=0}^{D-1}{{{\Lambda }_{a}}^{\text{2}}\text{=1}} ?φ∣φ?=a=0∑D?1?Λa?2?Va∣?Ua∣Ua?∣Va?=a=0∑D?1?Λa?2=1
定义 ∣ φ ? \left| \varphi \right\rangle ∣φ?被投影到 ∣ U a ? ∣ V a ? \left| {{U}^{a}} \right\rangle \left| {{V}^{a}} \right\rangle ∣Ua?∣Va?态的概率满足 P a = Λ a 2 {{P}_{a}}=\Lambda _{a}^{2} Pa?=Λa2?(量子力学的基本假设),显然概率满足归一化条件
∑ a P a = 1 \sum\nolimits_{a}{{{P}_{a}}=1} ∑a?Pa?=1
根据概率论香农熵的定义:
E S = ? P a ∑ a ln ? P a {{E}^{S}}=-{{P}_{a}}\sum\nolimits_{a}{\ln {{P}_{a}}} ES=?Pa?∑a?lnPa?
根据该公式定义量子态的纠缠熵:
S = ? ∑ a = 0 D ? 1 Λ a 2 ln ? Λ a 2 S=-\sum\limits_{a=0}^{D-1}{\Lambda _{a}^{2}}\ln \Lambda _{a}^{2} S=?a=0∑D?1?Λa2?lnΛa2?
因为香农熵是刻画信息量的大小,类推到量子态,那么量子态的纠缠熵就是刻画量子信息量的大小。把量子态二分为A体系和B体系,A、B体系在进行给定基底下的概率测量得到的信息熵就是这两个体系在该二分下的纠缠熵。
奇异值分解中
φ s 1 s 2 ? s N = ∑ a = 0 D ? 1 U s 1 s 2 ? s K , a Λ a V s K + 1 ? s N , a ? {{\varphi }_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}}=\sum\limits_{a=0}^{D-1}{{{U}_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{K}},a}}{{\Lambda }_{a}}}V_{{{s}_{K+1}}\cdots {{s}_{N}},a}^{*} φs1?s2??sN??=a=0∑D?1?Us1?s2??sK?,a?Λa?VsK+1??sN?,a??
U V UV UV满足正交性:
U ? U = ∑ s 1 … S K U s 1 … S K , α ? U S 1 … S K , α ′ = I U^{\dagger} U=\sum_{s_{1}\ldots S_{K}} U_{s_{1} \ldots S_{K}, \alpha}^{*} U_{S_{1} \ldots S_{K}, \alpha^{\prime}}=I U?U=s1?…SK?∑?Us1?…SK?,α??US1?…SK?,α′?=I
V ? V = ∑ s 1 … S K V s 1 … S K , α ? V S 1 … S K α ′ = I V^{\dagger} V=\sum_{s_{1}\ldots S_{K}} V_{s_{1} \ldots S_{K}, \alpha}^{*} V_{S_{1} \ldots S_{K} \alpha^{\prime}}=I V?V=s1?…SK?∑?Vs1?…SK?,α??VS1?…SK?α′?=I
由上述性质可计算开放边界MPS的纠缠,设MPS态满足:
φ s 1 s 2 … s N = ∑ a 1 a 1 … a N ? 1 A s 1 a 1 ( 1 ) … A s K a K ? 1 a K ( K ) Λ a K ( K ) A s K + 1 a K a K + 1 ( K + 1 ) … A S N a N ? 1 ( N ) \varphi_{s_{1} s_{2} \ldots s_{N}}=\sum_{a_{1} a_{1} \ldots a_{N-1}} A_{s_{1} a_{1}}^{(1)} \ldots A_{s_{K} a_{K-1} a_{K}}^{(K)} \Lambda_{a_{K}}^{(K)} A_{s_{K+1} a_{K} a_{K+1}}^{(K+1)} \ldots A_{S_{N} a_{N-1}}^{(N)} φs1?s2?…sN??=a1?a1?…aN?1?∑?As1?a1?(1)?…AsK?aK?1?aK?(K)?ΛaK?(K)?AsK+1?aK?aK+1?(K+1)?…ASN?aN?1?(N)?
当如下左/右正交条件满足时, Λ K {{\Lambda }^{K}} ΛK为MPS给出的前K个自旋与其余自旋之间的纠缠:
a.∑ s 1 A s 1 a 1 ( 1 ) A s 1 a 1 ( 1 ) ? = I a 1 a 1 \sum_{s_{1}} A_{s_{1} a_{1}}^{(1)} A_{s_{1} a_{1}}^{(1) *}=I_{a_{1} a_{1}} ∑s1??As1?a1?(1)?As1?a1?(1)??=Ia1?a1??
b.∑ s n a n ? 1 A s n a n ? 1 a n ( n ) A s n a n ? 1 a n ( n ) ? = I a n a n ( 1 < n < K ) \sum_{s_{n} a_{n-1}} A_{s_{n} a_{n-1} a_{n}}^{(n)} A_{s_{n} a_{n-1} a_{n}}^{(n) *}=I_{a_{n} a_{n}} \quad(1
d. ? ∑ s n a n + 1 A s n a n ? 1 a n ( n ) A s n a n ? 1 a n ( n ) ? = I a n ? 1 a n ? 1 ( K < n < N ) \operatorname{d.} \sum_{s_{n} a_{n+1}} A_{s_{n} a_{n-1} a_{n}}^{(n)} A_{s_{n} a_{n-1} a_{n}}^{(n) *}=I_{a_{n-1} a_{n-1}}(K
前面K个tensor收缩构成SVD分解中的U,后面的tensor收缩构成SVD分解中的V,称为MPS的中心正交形式,也称为SVD形式。例如长度为4的MPS,箭头表示正交条件的方向:
文章图片
MPS的中心正交形式在后面的学习中会经常涉及,且与SVD分解紧密联系在一起,所以这个要好好进行理解消化( o=^?ェ?)o!
3. 矩阵乘积态的规范自由度与正交形式 计算MPS的斯密特分解可将MPS变成SVD形式,但是其所表示的量子态不能改变。改变MPS中的tensor但不改变其所表示的量子态,被称为规范变换也就是物理量不改变、数学形式改变的变化。进一步定义MPS的规范自由度:对于同一个量子态,可由多组由不同张量组成的MPS态来表示其系数。
已知MPS满足:
φ S 1 S 2 … S N = A S 1 : ( 1 ) … A S n : ( n ) A S n + 1 : ? ( n + 1 ) … A S N : ( N ) T \varphi_{S_{1} S_{2} \ldots S_{N}}=A_{S_{1}:}^{(1)} \ldots A_{S_{n}:}^{(n)} A_{S_{n+1}: \cdots}^{(n+1)} \ldots A_{S_{N}:}^{(N) \mathrm{T}} φS1?S2?…SN??=AS1?:(1)?…ASn?:(n)?ASn+1?:?(n+1)?…ASN?:(N)T?
引入任意可逆矩阵 U U U及其逆矩阵 U ? 1 {{U}^{-1}} U?1,定义:
B s n ( n ) = A s n : : ( n ) U , B s n ( n + 1 ) = U ? 1 A s n : : ( n + 1 ) B_{{{s}_{n}}}^{(n)}=A_{{{s}_{n}}::}^{(n)}U,B_{{{s}_{n}}}^{(n+1)}={{U}^{-1}}A_{{{s}_{n}}::}^{(n+1)} Bsn?(n)?=Asn?::(n)?U,Bsn?(n+1)?=U?1Asn?::(n+1)?
得到同一个量子态的两种MPS表示:
φ s 1 s 2 … s N = A s 1 ( 1 ) … A s n : : ( n ) A s n + 1 : ? ( n + 1 ) … A s N : ( N ) T = A s 1 : ( 1 ) … B s n : ( n ) B s n + 1 ! ( n + 1 ) … A S N : ( N ) T \varphi_{s_{1} s_{2} \ldots s_{N}}=A_{s_{1}}^{(1)} \ldots A_{s_{n}::}^{(n)} A_{s_{n+1}: \cdots}^{(n+1)} \ldots A_{s_{N}:}^{(N) \mathrm{T}}=A_{s_{1}:}^{(1)} \ldots B_{s_{n}:}^{(n)} B_{s_{n+1} !}^{(n+1)} \ldots A_{S_{N}:}^{(N) \mathrm{T}} φs1?s2?…sN??=As1?(1)?…Asn?::(n)?Asn+1?:?(n+1)?…AsN?:(N)T?=As1?:(1)?…Bsn?:(n)?Bsn+1?!(n+1)?…ASN?:(N)T?
公式总是没有图来得直观,下面我们用下图来进行进一步理解。MPS规范变换可以在任何一个或多个辅助指标上插入一个单位阵,也就是任何可逆矩阵及其逆矩阵的乘积。我们都知道任何矩阵乘单位阵都等于自己本身,所以在任何一个或多个辅助指标上插入一个单位阵都不会改变量子态。将变换矩阵作用到各张量{ A ( n ) {{A}^{(n)}} A(n)}上,就能得到新张量{ B ( n ) {{B}^{(n)}} B(n)}
文章图片
在这种情况下,我们插入不同维数的单位矩阵就会得到不同的新张量{ B ( n ) {{B}^{(n)}} B(n)},这个时候,我们可以通过引入新的约束条件,固定MPS的规范自由度,使得给定量子态具备唯一的MPS表示。
例如MPS的中心正交形式,如下图所示。当张量{ A ( n ) {{A}^{(n)}} A(n)}(n
文章图片
给定任意一个矩阵乘积态,求量子纠缠谱( Λ ( K ) {{\Lambda }^{(K)}} Λ(K)):
(1) 把该矩阵乘积态变成K-中心正交形式;
(2) 对K-中心正交形式的中心tensor做奇异值分解。
基于K-中心正交形式,可对MPS辅助指标维数进行最优裁剪,裁剪方法为:
(1) 进行中心正交化,将正交中心放置于第K个张量;
(2) 对中心张量进行奇异值分解
A s K a K ? 1 a K ( K ) = ∑ β = 0 χ ? 1 U s K a K ? 1 β Λ β ( K ) V a K β A_{{{s}_{K}}{{a}_{K-1}}{{a}_{K}}}^{(K)}=\sum\nolimits_{\beta =0}^{\chi -1}{{{U}_{{{s}_{K}}{{a}_{K-1}}\beta }}\Lambda _{\beta }^{(K)}{{V}_{{{a}_{K}}\beta }}} AsK?aK?1?aK?(K)?=∑β=0χ?1?UsK?aK?1?β?Λβ(K)?VaK?β?
仅保留前 χ \chi χ个奇异值及对应的奇异值向量,其中 χ \chi χ为截断维数;
(3) 将第K个张量更新为 U → A ( K ) U\to {{A}^{(K)}} U→A(K);
(4) 将第(K+1)个张量更新为
∑ a K Λ β ( K ) V a K β A s K + 1 a K a K + 1 ( K + 1 ) → A s K + 1 β a K + 1 ( K + 1 ) \sum\nolimits_{{{a}_{K}}}{\Lambda _{\beta }^{(K)}{{V}_{{{a}_{K}}\beta }}}A_{{{s}_{K+1}}{{a}_{K}}{{a}_{K+1}}}^{(K+1)}\to A_{{{s}_{K+1}}\beta {{a}_{K+1}}}^{(K+1)} ∑aK??Λβ(K)?VaK?β?AsK+1?aK?aK+1?(K+1)?→AsK+1?βaK+1?(K+1)?
通过不断移动正交中心的位置来实现MPS辅助指标的最优裁剪。
MPS的正则形式:给定量子态
∣ φ ? = ∑ s 1 s 2 ? s N φ s 1 s 2 ? s N ∏ ? n = 1 N ∣ s n ? \left| \varphi \right\rangle =\sum\nolimits_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}{{{\varphi }_{{{s}_{1}}{{s}_{2}}\cdots {{s}_{N}}}}\prod\limits_{\otimes n=1}^{N}{\left| {{s}_{n}} \right\rangle }} ∣φ?=∑s1?s2??sN??φs1?s2??sN???n=1∏N?∣sn??
其系数满足:
φ S 1 S 2 … S N = A S 1 : ( 1 ) Λ ( 1 ) A S 2 : Λ ( 2 ) Λ ( 2 ) … Λ ( N ? 2 ) A S N ? 1 : Λ ( N ? 1 ) Λ ( N ? 1 ) A S N : ( N ) T \varphi_{S_{1} S_{2} \ldots S_{N}}=A_{S_{1}:}^{(1)} \Lambda^{(1)} A_{S_{2}: \Lambda}^{(2)} \Lambda^{(2)} \ldots \Lambda^{(N-2)} A_{S_{N-1}: \Lambda}^{(N-1)} \Lambda^{(N-1)} A_{S_{N}:}^{(N) \mathrm{T}} φS1?S2?…SN??=AS1?:(1)?Λ(1)AS2?:Λ(2)?Λ(2)…Λ(N?2)ASN?1?:Λ(N?1)?Λ(N?1)ASN?:(N)T?
Λ ( n ) {{\Lambda }^{(n)}} Λ(n)是当前位置下进行二分得到的纠缠谱,满足:
a.∑ s 1 A s 1 a 1 ( 1 ) A s 1 a 1 ( 1 ) ? = I a 1 a 1 \sum_{s_{1}} A_{s_{1} a_{1}}^{(1)} A_{s_{1} a_{1}}^{(1) *}=I_{a_{1} a_{1}} ∑s1??As1?a1?(1)?As1?a1?(1)??=Ia1?a1??
b.∑ s n a n ? 1 Λ a n ? 1 a n ? 1 ( n ? 1 ) A s n a n ? 1 a n ( n ) Λ a n ? 1 a n ? 1 ( n ? 1 ) A s n a n ? 1 a n ( n ) ? = I a n a n \sum_{s_{n} a_{n-1}} \Lambda_{a_{n-1} a_{n-1}}^{(n-1)} A_{s_{n} a_{n-1} a_{n}}^{(n)} \Lambda_{a_{n-1} a_{n-1}}^{(n-1)} A_{s_{n} a_{n-1} a_{n}}^{(n) *}=I_{a_{n} a_{n}} ∑sn?an?1??Λan?1?an?1?(n?1)?Asn?an?1?an?(n)?Λan?1?an?1?(n?1)?Asn?an?1?an?(n)??=Ian?an??
c.∑ s n a n A s n a n ? 1 a n ( n ) Λ a n a n ( n ) A s n a n ? 1 a n ( n ) ? Λ a n a n ( n ) = I a n ? 1 a n ? 1 ( 1 < n < K ) \sum_{s_{n} a_{n}} A_{s_{n} a_{n-1} a_{n}}^{(n)} \Lambda_{a_{n} a_{n}}^{(n)} A_{s_{n} a_{n-1} a_{n}}^{(n) *} \Lambda_{a_{n} a_{n}}^{(n)}=I_{a_{n-1} a_{n-1}} \quad(1
文章图片
有没有觉很很神奇,神奇的事情还在后面,我们下期见!
我是一只正在不断学习、希望早日成为小白的小小白,有什么错误欢迎大家批评指正,喜欢的请点个赞哦!
文章图片
推荐阅读
- paddle|动手从头实现LSTM
- 人工智能|干货!人体姿态估计与运动预测
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- Python专栏|数据分析的常规流程
- Python|Win10下 Python开发环境搭建(PyCharm + Anaconda) && 环境变量配置 && 常用工具安装配置
- Python绘制小红花
- 读书笔记|《白话大数据和机器学习》学习笔记1
- Pytorch学习|sklearn-SVM 模型保存、交叉验证与网格搜索
- OpenCV|OpenCV-Python实战(18)——深度学习简介与入门示例
- python|8. 文件系统——文件的删除、移动、复制过程以及链接文件