因此,宏观和微观连接组尺度之间存在差异。已经提出了不同的方法来弥合这两个世界:例如,最近在同一组织块中探索了使用 CLARITY 技术清除的脑组织中荧光标记神经丝的扩散 MRI 和高分辨率光学成像的组合,以允许更强大多模态 MRI-CLARITY 比较。在另一项研究中,来自人类海马的组织块通过解剖和扩散 MRI、三维偏振光成像 [3D-PLI; (11)] 和双光子荧光显微镜将不同空间尺度的海马纤维结构信息汇总在一起,并将其表示在一个共同的参考空间 BigBrain 模型 (www.ebrains.eu) 中。这些数据显示了穿孔通路,它不代表一个统一的管道,而是一个多组分系统,起源于内嗅皮层,具有许多细轴突纤维束(在 20 毫米的范围内)并投射到角部和下叶。3D-PLI 是一种显微技术,可以解码穿孔通路的精细结构,该通路在学习和记忆以及阿尔茨海默病的发病机制中具有核心作用。在方法论上,不同技术的组合有助于交叉验证结果。实际上,它为将高分辨率感兴趣区域分析与全脑研究相结合铺平了道路。
Atlas 方法可以系统地充当宏观和微观尺度的桥梁,将来自单细胞超高分辨率研究的数据及其与感兴趣的小区域的联系整合到一个共同的微观参考空间中。BigBrain 以 20 毫米各向同性分辨率表示这种解剖模型,该分辨率略高于查看细胞形态细节所需的分辨率。它基于 7404 个组织学、细胞体染色切片;原始数据集约为 1 TB。BigBrain 提供了一个模板,将皮层甚至子层的发现与全脑结构、连接性和功能的数据相结合。
以细胞分辨率处理和分析整个人类大脑是一项巨大的挑战。目前,在全脑水平上深入到单个轴突还遥不可及。然而,为了简单起见,假设一个轴突连接两个神经元,在全脑水平跟踪轴突在计算上意味着什么?根据死后大脑的扩散 MRI 在毫米范围内计算全脑水平的纤维路线,意味着优化 4 × 10^5 个旋转方向。这将需要大约 130 兆字节的存储空间和 1 天的台式计算机计算时间。
使用 3D-PLI 对整个人脑进行 60 µm 各向同性分辨率水平的轴突分析将需要 8.3 TB 的存储空间和现有超级计算机上的数天时间来优化 2 × 10^10 个自旋。如此大的数据集也给数据可视化带来了巨大的挑战。例如,基于开源软件 VTK (www.paraview.org) 的 Paraview 可以使用并行图形处理单元 (GPU),并已应用于渲染和可视化 3D-PLI 数据。进一步优化 3D-PLI 以 1.3 µm 面内分辨率(即单轴突)获得的纤维取向,旋转 10^13 次,将导致 3.2 PB 的存储需求和多年的计算。这在目前的千万亿级技术中是不可能的,但可以通过未来的百亿亿级计算能力来实现,即每秒能够执行 10^18 次浮点运算(即 1 亿亿次浮点运算)的计算机。然而,处理如此大的数据集会在输入输出级别产生大量计算需求。更高效的输入输出程序和算法正在出现,这应该会有所帮助,但计算挑战仍然非常高。
当细胞和轴突信息与大脑组织的其他维度相关联时,计算要求也会进一步增加,例如,分子结构具有区域特异性,并且是信号转导的关键。同样,当添加时间变化来模拟细胞活动、可塑性或网络功能时,要求会进一步增加。在开发更符合生物学的大脑模型时,不仅要考虑大脑的区域隔离,还要考虑层流和亚层流特征及其特定的细胞数量、解剖和生理特性以及分布。同样,基于更现实的模型的人脑计算机模拟必须相应地缩放,这些模型解释了解剖学和生理学的限制。
这些努力对高性能计算技术提出了要求。例如,神经科学用例变得依赖于可扩展的工作流程,从提取存储在数据存储库中的多模态数据集到预处理、模拟、可视化和分析,甚至更多地使用机器学习和深度学习。此类工作流组件的计算将受益于未来超级计算的模块化和交互式概念,例如在欧洲深度项目中开发的那些概念。在模块化超级计算架构中,专门的计算模块被集成以形成深度连接的硬件架构,并且可以与最适合工作流特定组件的每个模块连贯使用。这包括各种模块,如中央处理单元 (CPU) 集群、GPU 增强器、用于数据分析的现场可编程门阵列模块、神经形态系统、极限存储模块,以及未来的量子计算机和退火器。此外,对需要交互式超级计算的神经科学工作流程的需求不断增长——例如,在继续之前可视化中间结果和正确的参数设置——并且依赖于 Paraview 等软件的交互式使用。
神经科学中的大数据挑战需要技术解决方案来存储数据(TB 到 PB 范围内),同时通过云提供给更广泛的社区。这需要从面向对象的云存储系统到超级计算机的 EB 级并行文件系统的透明数据传输。
艾伦大脑研究所为神经科学家提供了一个平台,并提供了大量反映不同物种(包括果蝇、斑马鱼、小鼠和人类)大脑组织多个方面的图像堆栈,以及用于可视化、上传和下载的工具(BigNeuron;www.alleninstitute.org/bigneuron/data/)。人类生物分子图谱计划旨在开发一个开放的全球平台来绘制整个人体中的健康细胞,这项努力伴随着大量的大数据和计算挑战。在欧洲,人类大脑项目开发了 EBRAINS 以提供大量研究仪器、数据和相关服务——重点是人类、大鼠和小鼠的大脑——它们相互关联,并使云访问交互式超级计算、基于网络的可视化和分析,以及通过 Fenix 的高端模拟和数据服务。该平台由神经科学家和开发人员根据研究需求共同构建,例如运行大规模模拟或 3D 重建和分析大脑模型。Fenix 被设计为一个通用的基础设施即服务平台,包括欧洲范围的身份验证服务,以支持许多研究社区的访问。在神经科学界共享数据、方法和研究工具,并在不同社区之间联合服务可以利用大量相关的方法和资源投资,这反过来又是开发新的脑医学诊断工具和疗法的基础。毫无疑问,基于云的超级计算和分布式协作研究平台,将在神经科学研究中发挥越来越大的作用,以更好地了解大脑的复杂性。
在未来五年内,欧洲的目标是部署其前两台百亿亿级超级计算机。它们将由欧洲高性能计算联合企业 (EuroHPC JU) 收购,这是欧盟、欧洲国家和私人合作伙伴之间的一项联合倡议。「大脑研究界随时准备使用这些百亿亿级系统。」Amunts 说。
参考内容:https://www.eurekalert.org/news-releases/935941
论文链接:https://www.science.org/doi/10.1126/science.abl8519
评论
沙发等你来抢