AI光学显微镜,分辨率提高15.4倍,生物医学活物观测新时代

05-10 10:53

【简介】清华大学团队通过AI通过 for Optics创新赋能超分辨率光学显微镜,将活细胞成像体积分辨率提高15.4倍!借助这个工具,研究人员可以拍摄癌细胞分裂、胚胎发育等精密生命过程。「4K超清电影」,从而激发了生物医学领域的重大进步。


近年来,以深度学习为代表的智能计算方法对光学显微镜的发展产生了变化性的影响。光学成像系统与智能算法的联合优化可以在很大程度上突破光学系统设计的时空带宽的局限性。


光学显微成像领域的前沿重要挑战是如何基于光学系统和人工智能的交叉创新突破性能瓶颈,从3D视角和亚细胞级异性分辨率观察动态生物过程。


日前,清华大学生命学院李栋研究小组与自动化系戴琼海团队合作,提出了一款全新的「AI 」显微镜:元学习驱动的反射式晶格光片虚拟结构光照明显微镜(Meta-rLLS-VSIM)。利用AI赋能超分辨率光学显微镜,合作团队协同优化硬件软件,实现「1 1>2」成像效果,开启了生物医学活物观测的全新视角。



论文链接:https://www.nature.com/articles/s41592-025-02678-3


光片显微镜显微镜在众多三维光学显微成像技术方案中(LSM)多细胞、大体积样本三维成像是目前最适合的模式之一。


Eric是2014年诺贝尔化学获得者。 在过去LSM的基础上,Betzig创造了晶格光片显微镜(LLSM),并且通过与结构光照明(SIM)结合形成晶格光片结构光照明显微镜。(LLS-SIM)解决方案。


LLS-在结构光照明方向上,SIM可以将分辨率提高到150纳米左右,这也是目前最新的前沿技术方法。但是,LLS-SIM只能产生单一角度的结构光照明,导致各种空间分辨率,不超过分辨率容易引起畸变,限制了3D亚细胞动态的精确检测。


针对这个难题,Meta-rLLS-通过AI和光学的交叉创新,VSIM将LLSIM在不牺牲显像速率、光子成本等关键显像指标的情况下,-SIM 将一维超分辨率扩展到XYZ三个维度,实现横向 120 nm、轴向 160 nm 近各向异性显像分辨率,体积显像分辨率比LLSM高15.4倍!


特别是这项工作将元学习方法与系统数据收集过程紧密结合,完成从训练数据收集到深度学习模型的自适应布局过程只需3分钟,使AI工具在实际生物实验中的应用几乎可以实现「零门槛」。


合作团队从单细胞到胚胎尺度的各种生物样本进行了测试,包括植物花粉管、小鼠胚胎、美丽隐杆线虫胚胎和真核分裂或分裂期间的其他真核生物,并得到了验证。 Meta-LLS-VSIM 能够快速、长时间、混色三维超分辨率成像任务。



Meta-rLLS-VSIM可以实现从细胞到胚胎跨尺度的五维活物超分辨率观测。


「虚拟化结构照明」提高横向分辨率


光学系统设计方案受制于特殊的双物镜垂直安装,LLS-SIM只能产生固定角度的结构光,而只有结构光照明的方向才能产生超分辨率。


研究小组注意到,由于生物样本生长角度的随机性,LLS-SIM收集的单向超分辨率信息实际上包括不同方向的样本结构类型。因此,如果使用深度神经网络(DNN)能学到单一维度的超分辨率,就有潜力将其扩展到其它方向。


所以研究小组采用自主构建的成像系统,采集LLSM//不同生物样本LLS-作为一个训练集,SIM图像训练了一个精心设计的DNN模型来学习单一维度的超分辨率。


在推理阶段,只需将LLSM低分辨率图像以特定的方向输入到DNN模型中,就可以得到提高这个方向分辨率的结果。DNN模型似乎可以随意改变方向。「虚拟结构光」,填补了LLS-SIM系统的固有缺陷。


最后,通过维纳解卷积,将不同方向的一维超分辨率图像结合起来,使其在不同方向的超分辨率信息互补,从而获得平面内分辨率相同的各向异性超分辨率图像。



虚拟结构照明超分辨率DNN模型数据收集、训练和推理


研究小组在亚细胞结构肌动蛋白微丝上测试了虚拟结构光的明显照明(VSI-SR)结果表明,与其他方法相比,虚拟结构照明图像更加清晰,不仅包含了更多的频率信息,而且保持了各向异性。



展示虚拟结构照明成像效果


双视信息融合提高轴向分辨率


尽管虚拟结构光照明可以将LLS-SIM超分辨率扩展到整个二维平面,但是它不能提高与这个平面垂直方向的分辨率(即轴向分辨率)。


为了解决这个问题,研究小组用反射镜代替了承载生物样本的盖玻片。三维成像时,镜面上方的实像和下方的虚像同时拍摄,两者的空间视角不同。


两个视角对于单个视角类似于两个视角对于单个视觉,两个视角的分辨率空间取向不同,意味着两个视角横向补充轴向分辨率。结合两个视角图像的信息,可以实质上提高空间数据采集的轴向分辨率。



Meta-rLLS-基于镜面反射的VSIM双视角成像原理


研究小组提出了Richardson-Lucy双循环结合网络结构,以便更好地结合两个角度信息。(RL-DFN)。


RL-DFN结合了Richardson-Lucy迭代公式的多视角,在保证信息融合符合统计规律的前提下,采用可训练卷积层代替前向和反向传播算法,提高结合效果。


随后,点扩散函数将结合高分辨率结果和光学系统的点扩散函数。(PSF)与输入图像体栈一起进行卷积计算循环损失。(Cycle Loss)。这个Cycle Loss将RL-为了满足物理先验条件,DFN约束了解卷积模型,使轴向分辨率的提高在物理上是可靠的。


研究小组在RL-DFN设计中引入了判别器,以进一步提高结合结果的保真度。通过识别RL-DFN输出随机二维切面图和虚拟构造光成像,判别器可以获得与RL-DFN良性竞争的各向异性超分辨率平面图。


为了欺骗判别器,RL-DFN将努力提高信息整合效果,使任何角度的截面达到各向异性的超分辨率,最终在三维空间中实现各向异性的分辨率。



RL-模型结构示意DFN


Cycle从双视角循环 在Loss的约束和判别器的对抗下,RL-DFN能充分利用双视角互补分辨率信息,合理提高轴向分辨率。


研究小组将RL-DFN与模拟数据中的其他无监督方法进行比较,发现RL-DFN可以实现各向异性的超分辨率信息融合,样本细节可以更准确地恢复。



RL-与其他方法相比,DFN重建效果


实现人工智能模型快速自适应布局


在实际的生物成像试验中,由于DNN泛化性和表征能力有限,为了获得最佳的模型推理效果,通常需要对每种不同的生物结构甚至不同的信噪比训练专用模型进行训练。


而且亚细胞结构成百上千,而且千姿百态,为每个结构训练模型都需要收集大量的训练数据,而且耗费了大量的核算成本和时间成本,使得AI工具在实际的显像实验中很难得到广泛的应用。


为解决这个难题,研究小组将「元学习」与光学显微系统的数据采集时序紧密结合,模型训练所需的数据量减少12倍,训练时间减少720倍,AI模型可以快速自适应布局。


元学习的核心思想是在训练过程中不仅要注意单一任务的性能优化,还要在面对新任务时快速调整自己的参数,实现模型的快速转移。


虽然元学习训练获得的通用元模型不能在单个任务中达到最佳的推理效果,但它可以通过在少量子任务数据的训练中快速收敛到子任务的最佳模型。通用元模型相当于「枢纽站」,拥有最好的模型来达到所有子任务。「迅速路径」。


在Meta-rLLS-在VSIM中,研究小组将不同生物样本和信噪比的超分辨率重建视为独立的子任务,训练单向超分辨率任务的通用元模型。


在布置新的子任务时,只需收集3对高低分辨率图像,并进行30。 第二次微调迭代,可以快速得到针对这个新任务的最佳DNN模型。



元学习驱动模型快速自适应布局实现流程


为了简化操作步骤,研究小组仍然在显微镜管理程序中实现了通用元模型部署过程的全自动化。用户只需点击图形界面中的几个待收集区域,然后整个过程就可以在后端自动实现,从数据收集到训练集的超分辨率重建,再到元模型的微调,不到3分钟。



元学习驱动模型快速自适应布局过程视频展示。


借助元学习建造的「枢纽站」以及全自动部署过程,研究团队在不同生物样本场景下完成了AI模型的快速自适应部署,大大降低了AI模型在实际生物成像实验中的使用门槛,让AI真正帮助生命科学发现。


综上,Meta-rLLS-通过反射增强双视角晶格光片显微镜和元学习,VSIM可以快速适应部署模式。图像系统硬件升级,融合了虚拟结构光照明和RL双循环网络创新人工智能算法,展现了软件和硬件协同优化光学显微镜成像能力大大提高。


Meta-rLLS-VSIM的出现为细胞生物学、神经科学等基础学科的发展提供了新的技术路径,有望帮助生命科学研究者从更全面、更多维度的角度发现、理解和探索丰富多彩的生物现象。


参考资料:


https://www.nature.com/articles/s41592-025-02678-3


本文来自微信微信官方账号“新智元”,编辑:LRST,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com