近日,中国科学家依托“天河二号”超级计算机,“拍”出了一部史上最细致的“宇宙大片”,呈现了137亿年的宇宙成长史。不过,让他们忧心的是——
“搭档”宇宙学:超算还太“嫩”
137亿年里,宇宙是怎么变成现在这样的?
这是人类一直在探索的科学和哲学问题。如今,科学家用高性能计算机,基于数值模拟技术“拍”出了一部史上最细致的“宇宙大片”,呈现了这一漫长的宇宙成长史。
近日,国家超算广州中心透露,北京师范大学天文学系教授张同杰领衔的宇宙中微子数值模拟团队,依托“天河二号”超级计算机,成功完成了3万亿粒子数的宇宙中微子和暗物质数值模拟,揭示了宇宙大爆炸1600万年之后至今约137亿年的漫长演化进程。
尽管我国超算中心蜂拥而起,但“天河二号”是唯一能完成这项任务的平台,超算要想更好地支撑天文发展,无论是软件还是硬件,都有很长的路要走。
把宇宙装进“盒子”
这个看似极其专业的研究,说白了就是用虚拟的3万亿颗粒子模拟宇宙演化的过程。
“我们把这么多粒子放在一个虚拟的方盒子里,模拟宇宙的演化。”张同杰在接受《中国科学报》记者采访时解释。
在计算机模拟中,宇宙形成初期,这3万亿虚拟粒子就像散沙一样分布在盒子中。随着时间推移,科学家根据天体物理与宇宙学模型设计好的引力作用下,这些粒子会相互聚合、分散,模拟宇宙的演化过程。此次模拟正是要尽可能还原宇宙中微子和暗物质在宇宙中的真实演化情况。
研究人员会选几个重要的演化时间段,将模拟结果做成动态“大片”。
张同杰说,用3万亿粒子做模拟是史无前例的。美国最大做到了1.07万亿粒子数的规模。
粒子数越大,模拟出的宇宙演化过程也就越清晰,可以把原来无法呈现的天体物理细节模拟出来,而这对计算能力提出了更高的要求。
于是,数据存储成了大问题。“我们的模拟在一个时间节点上输出的数据就有约30T,整个模拟做下来产生了P量级的数据量。”张同杰说,“下一阶段我们还想把黑洞和虫洞的形成过程加进模拟中去,现在是P量级的数据量,将来可能会达到几百P,到时候数据存放都会成为问题。”
同时,长达一年半的研究,也使计算费高得难以承受。“很烧钱。尽管超算广州中心给予了大力支持,但是长远而言, 我们还是需要科学基金的支持。”张同杰说。
宇宙学鞭策超算发展
中科院超算中心研究员王龙告诉记者,国内的计算宇宙学工作最早可追溯到上世纪80年代,目前的计算宇宙学专家很多有海外留学背景,能在国内超算资源不甚丰富的情况下用国外超算开展研究。
“大多数高精度宇宙学数值模拟,都依赖超算技术。”张同杰说。
随着国内超算能力的提升,越来越多的计算宇宙学学者开始在国内的超级计算机上开展宇宙学数值模拟。
2010年,中科院紫金山天文台、中科院国家天文台、中科院上海天文台和中科院计算机网络信息中心成立的中国计算宇宙学联盟,提出了一项大型宇宙学数值模拟计划——“盘古计划”。当年11月,这项计划用300亿虚拟粒子在边长为45亿光年的“盒子”里完成宇宙模拟实验,这一模拟的分辨率在当时居世界第三。
如今300亿的粒子数,早已不能满足天文科学家对细节的追求。
“与其他领域相比,宇宙数值模拟对运算存储能力的要求更高。”王龙告诉记者,宇宙学是超算发展的支柱性应用之一。在国外,每次推出新的超级计算机,率先部署的全机应用往往都有宇宙演化模拟。
在需求的推动下,超算也在不断努力。前不久,中科曙光就专门为中科院紫金山天文台设计了GPU集群,以缩短计算运行周期。
如今,“‘天河二号’在运算和存储上都能够满足我们完成3万亿粒子数的数值模拟。”张同杰说。但他也表示,除“天河二号”外,目前世界上难有平台可担此重任。
软件实力跟不上需求
“因为发展自主超算软件需要较长的周期,国内很多宇宙学团组会选择与国外的研究机构合作,使用他们的软件。”中科院网络信息中心研究人员曹宗雁告诉记者,目前天文领域最普遍使用的软件是德国开发的数值模拟软件。
在衡量一个国家的超级计算综合实力时,软件的重要性丝毫不亚于硬件。但我国“无论是硬件还是软件,用的大都是国外的”。曹宗雁说。
2010年,曹宗雁博士毕业。为了做宇宙学超算软件,计算机专业出身的他选择去国家天文台做博士后。
王龙告诉记者,对于天文本专业的人而言,由于研发软件需要较长的时间投入,必然影响论文产出等科研评价指标,开展软件研发的人也相当少。
屏蔽此推广内容另一制约宇宙学软件发展的因素是机时费问题。开展一组宇宙学模拟往往需要百万元级的机时费,时至今日,曹宗雁研发的一款数值模拟软件仍没能去“天河二号”上一试身手。“我们需要支持。”曹宗雁说。
王龙告诉记者,目前的超算经费更多被投入到硬件上,软件开发的经费投入比例与国外相比明显偏低。
此外,发展计算宇宙学另一个挑战在于如何对庞大的数据进行可视化处理。“可视化一方面可以帮助天文学家从浩繁的数据中发现科学现象,另一方面对科普的贡献也很大。”王龙说,可视化软件研究也应得到高度重视,否则随着超级计算机的迅猛发展,计算产生的数据在处理时将面临更大挑战。