<aside> <img src="notion://custom_emoji/9040cc52-5c24-4c85-8328-7061a24dd7f9/1b0d969b-881f-806e-93ce-007a91128a50" alt="notion://custom_emoji/9040cc52-5c24-4c85-8328-7061a24dd7f9/1b0d969b-881f-806e-93ce-007a91128a50" width="40px" />
机器学习领域,深度神经网络进步最快,transformer等架构允许训练上百亿参数量的超级神经网络。
很大一部分物理应用用预测替代结构优化,但是训练样本集,特别是高质量的专有问题,采集困难。很多人采用强化学习,无监督学习等方法弱化样本质量和数量对于训练结果(预测、生成)能力的影响 。依赖训练样本是神经网络结构很难导入先验知识或问题的结构性信息,优化层提供了一种可靠的思路。
量子信息是新兴学科,包括量子通信、量子精密测量和量子计算。新奇现象的量子现象都展现量子关联与经典关联的显著区别。EPR率先意识到这种区别,提出局域隐变量理论并认为量子力学不完善。贝尔定理及后续实验,证明量子力学的完备性,进一步衍生了量子信息。
引入机器学习方法解决量子信息问题是常见的思路,深度学习与量子信息的交叉方兴未艾。然而,许多量子信息任务需要运行在量子环境或者经典仿真环境,训练样本集获取成本高,样本数据噪声大,训练效率低。
同时,评估量子态性质等,需要通过求解优化问题得到;得益于量子力学理论框架,这类优化问题很大一部分是凸优化问题,特别是半定规划问题。这样,利用优化层可以很好将量子信息问题嵌入神经网络,降低样本集依赖。
本文考察了可微凸优化层的CvxpyLayers实现,增加了diffcp对MOSEK商用求解器支持,并利用VGON在量子问题上进行了测试。代码在GitHub上开源https://github.com/leo2www/diffcp-with-mosek.git
【论文结构】本文主体工作内容在第四章节展示,基于第二至三章节提供的理论基础。第二章节介绍了可微优化层的理论基础,包括凸优化理论、神经网络基础知识等,说明了嵌入优化问题的神经网络层的优势和计算优化问题微分的方法。第三章介绍了量子关联的基础知识,展示了基于L Q lo locc等量子关联,用一定方法(如NPA)构造的半定规划问题。第四章
【量子关联】- 参考 对称高维变分量子算法
研究历史:https://arxiv.org/pdf/2402.04652EPR提出局域实在论 认为量子力学预言了超强关联(薛定谔称这种关联为量子纠缠)并以此认为量子力学不完备(量子纠缠),波姆提出局域隐变量理论,
贝尔定理说明量子力学与定域实在论不相容,即在共享量子系统上进行局域测量获得的关联
量子纠缠和贝尔非局域性一开始被认为是同义词,然而理论推导和实验验证都说明他们都是量子关联的特定划分,量子关联包括更丰富更深刻的物理含义。不同类型量子关联的理论构造和实验验证在过去八十年层数不穷。【理论构造】Werner’s推演说明混态纠缠是比贝尔非定域更弱的量子关联https://journals.aps.org/pra/abstract/10.1103/PhysRevA.40.4277,Wiseman从EPR佯谬中直接推导出新的量子关联,称量子导引。【实验验证】aspechttps://journals.aps.org/prl/abstract/10.1103/PhysRevLett.49.1804 实验首次探测到贝尔不等式的违背,2015年给出了关闭所有漏洞的实验证据。https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.115.250401 并以此获得2022年诺贝尔奖。
网络(缠结交换entanglement-swapping network)
【概念】贝尔不等式:贝尔定理?CHSH。用概率表述关联,量子行为构成量子关联 L Q
场景(CHSH game),行为(behavior),局域隐变量(local hidden-variable theories) + 贝尔定理,量子(行为)表述,贝尔不等式,实验验证的论文引用。
【构造sdp问题】最优测量基,概率多胞体,NPA,lo&locc
【凸优化】
优化问题的抽象形式:无约束|约束优化问题,非凸|凸优化
凸优化
【线性规划】
原问题和对偶问题
对偶定理:有解
KKT条件:最优性条件
单纯形法可求解
【半定规划】
线性空间,矩阵构成,内积为trace,矩阵范数
原问题和对偶问题
KKT 条件
内点法求解
【锥规划】
所有凸优化问题都可以转化为锥规划形式
原始问题和对偶问题
对偶定理:略微复杂,考虑
内点法求解
【机器学习】