高性能计算十篇

时间:2023-03-26 08:19:31

高性能计算

高性能计算篇1

软件成焦点

“高性能计算面临的挑战,不在计算机本身,而是在应用和软件上。” 中科院网络信息中心超级计算中心主任迟学斌如是说。只有当计算机硬件、软件和自然科学领域的应用完美结合起来,才能将高性能计算的功效发挥到极致。

硬件技术的快速发展促进超级计算走向高端计算,软件技术的缓慢发展则阻止了高端计算走向应用。用户并行编程能力还有待提高,并行编程要达到良好的可编程性,必须解决结构性、通用性和可移植性问题。

中科院软件所并行计算研究中心副主任张云泉强调:“程序设计语言要跟上机器的发展,处理器增加以后,可靠性问题凸显,除了硬件,在程序设计上也要考虑可靠性。”

系统功耗过大是障碍

“500万~600万元的高性能计算机系统,一年下来的电费就要60万~70万元,真快成买得起用不起了。” 清华大学高性能计算机中心主任郑纬民提出了功耗这一严峻的问题。这不仅是对硬件制造商的挑战,也对软件设计人员编制低功耗运行代码提出了更高的要求。合理处理好这一问题,就能把挑战变成商机。

深化行业应用是关键

来自气象、石油、航空等领域的专家也畅谈了自己在应用方面的需求。“预计到2010年,气象方面的需求将达到千万亿次。” 国家气象局高性能计算机室高工洪文董介绍。中国气象局的高性能科学计算环境为大气科学及相关领域的科学研究、计划和业务提供科学计算、数据管理的资源平台。目前,中国气象局高性能计算机应用中心拥有以神威Ⅰ系统、神威新世纪集群系统、IBM SP系统、IBM高性能计算机为代表的一批国内一流的高性能计算资源。洪文董说:“硬件是一流的,但是用户关心的是软件应用,如何能够让设备的运行效率最高,这才是关键问题。另一个问题就是如何改造现有程序以适应多核并行应用。”

中石化集团公司信息管理部吴正宏教授也详细阐述了高性能计算在分子模拟、流程模拟等方面的应用。“以前用15年才能算出地下是什么情况,现在已经缩短到用小时计算了。”在提到高性能计算软件的时候,吴正宏教授道出了自己的忧虑:“国产的软件还不成规模,区域适应性较差,但在使用国外软件时面临两大问题:首先是价格昂贵,其次是应用受限。在投标国际性的大项目时,有的国外厂商会限制软件使用范围,使竞争力被很大削弱。”

如何深化高性能计算在行业中的应用,由谁来开发并行计算软件,成了这次会议的一个热点话题。中科院软件所并行计算研究中心副主任张云泉提到了计算科学的概念,这一专业培养的人才本身具有较好的数学和计算机基础,毕业后具有从事科学研究、解决实际问题及设计开发有关软件的能力。而目前我国一些院校已经开设了相关专业,面向特定行业招收特定的学员。只是目前还比较匮乏。但毫无疑问,计算科学是解决和学科建设相关的复合型人材问题的关键。

并行时代将到来

在国内,高性能计算不仅在石油、气象、生物、科研、国防等科学工程计算领域扮演着重要的角色,而且在教育、商业、企业、政府等信息服务领域也得到越来越广泛的应用。据IDC预测,到2008年,全球高性能计算机的市场容量将达到76亿美元。

高性能计算篇2

高性能计算的7大变化

千万亿次的梦想与现实

上下求索

――不同企业发展千万亿次计算的技术路线

以前,大家公认高性能计算机是一个国家综合实力的体现,因为它是大量科学研究的基础工具。现在,我们可以说,高性能计算机是商业应用的生力军,一方面,人们需要更快速度的计算机,因此计算速度达到千万亿次的HPC成为人们努力的一个目标;另一方面,从2002年开始,高性能计算机市场进入了一个高速发展周期,为了适应应用需求的多样化,商品化、标准化以及好用性、平民化也已经成为今天HPC发展必须要考虑的重要因素。在这一大背景下,我们可以看到HPC发展中的几大变化。

1.应用――研究与商业应用并举

在高性能计算的性能方面,国际上有TOP500排行榜,国内有TPO100排行榜,它们是国际与国内HPC发展与应用的一个标竿。

同前几次TOP500相比,2006年第28届的TOP500在应用领域并无太大变化,工业、科研和学术仍是超级计算机应用最为广泛的领域;保密、厂商和政府方面应用的系统数量基本未变。在商业和工业用户安装的224台系统中,IBM系统占121台,HP系统占116台,这就表明这两家公司已从总体上垄断了这一重要的市场段。IDC的数据也佐证了这一观点。在2006年,HP在高性能计算领域处于领先地位,占有33%的市场份额,IBM的市场份额则达到了28%,不过IBM在大型组织中部署的HPC,如蓝色基因等数据较多。第三名是Dell公司,占到17%,而Sun第四,占到10%。

美国是HPC系统最大的用户,以308台的总数傲视群雄。欧洲用户的数量略有回升,达到95台,高于亚洲用户的79台。在欧洲,英国用户的数量最多,德国次之。在亚洲国家中,日本最多,中国的安装台数在所有国家中位居第五。

在2006年中国高性能计算机性能TOP100排行榜中,石油勘探、工业应用和高校科研是高性能计算机在国内的三大主要应用领域,比率超过了57%。网络游戏是国内高性能计算机的新兴应用领域,从去年的3套增加到了今年的9套。总体而言,2/3以上的系统都直接用在了工业或商业领域;相反,纯粹针对科研的科学计算系统比率减少。从地理分布来看,国内早期高性能计算应用主要集中在北京、上海两地,但近两年,高性能计算系统的分布明显呈分散化,分布在全国20多个省市。不过,总体来说,经济较发达的地区,高性能计算机的数量也较多,这二者之间具有一定的正相关性。

对比后我们发现,与国际高性能计算机的使用相比,中国的高性能计算的工业应用程度不高,其中以石油勘探、地震资料处理最为成功(但现在越来越多的ISV 支持PC 集群,使高端市场受到很大冲击)。目前中国的高性能计算市场更多地集中在教育和科研领域。同时我们发现,在许多工业领域,如汽车、航空航天器的设计制造、石油勘探、地震资料处理及国防(核爆炸模拟)等,科学计算已经成为首选研究方法。在教育、科研领域,高性能计算有着更广泛的施展空间,在生命科学、材料设计、气象气候研究等学科中已成为科学研究的必备工具。

2.体系结构――集群独占花魁

HPC常用的体系结构包括MPP(大规模并行处理)、SMP(对称多处理系统)、集群等。集群是其中成本最低的一种体系结构,它随着HPC需求的增加而逐渐流行起来。目前它已经成为采用最多的HPC体系结构。

集群就像搭积木一样,利用商品化的工业标准互联网络,将各种普通服务器或者工作站连接起来,通过特定的方法,向用户提供更高的系统计算性能、存储性能和I/O性能,并具备单一系统映象(SSI)特征的分布式存储并行计算机系统。与SMP、MPP等相比,集群性能价格比高,可靠性、可扩展性、可管理性强,应用支持性好等优势都得到了用户的认可。

在2006年TOP500中,最常用的体系结构仍为集群系统,高达359台,占系统总数的72%。2006年的中国TOP100排行榜显示,超过70%的系统都采用了集群体系结构。值得关注的是,有26套是刀片服务器集群系统,HP和IBM分别占有13套和11套。在这26套系统中,有17套用于石油勘探,6套用于网络游戏。由此可见,采用刀片服务器搭建集群将是国内HPC应用的一大趋势。

集群系统流行有以下几个原因:

第一,一方面,行业应用逐渐成熟,并走向标准化,对高性能计算机的需求也随之不断增长;另一方面,构成集群的商品化部件越来越标准化,性能不断提高,这些都为HPC走上平民化的轨道提供了基础。而集群是HPC平民化最为合理的实现方式。专家预估,集群系统将走向标准化,进一步推动集群系统的发展和普及。

第二,集群系统能有今天的地位,很重要的一个原因就是Linux操作系统的发展。在TOP500中, Linux系统伴随着集群系统的兴起有不凡的表现,1998年只有一套,但是到2005年已经达到371套,占到了TOP500的74.2%。透过TOP500看高性能计算技术的发展,Linux与集群应该是我们需要重点关注的焦点之一,Linux和集群技术的日益普及已经深刻影响了高性能计算产业的发展,并推动中国高性能计算产业进入一个泛高性能计算时代,俗称“平民化时代”。

3.节点――刀片节节上升

刀片服务器的应用领域正在不断扩大。正如上文所言,在高性能计算领域,刀片服务器的魅力正在不断增强。经历了从最初1999年诞生,到其后的虚拟化,以及服务器整体性能提升和2005年刀片式服务器的专用化研究,刀片服务器产品在多核、低功耗、虚拟化技术的推动下,已完成从最初一味追求高计算密度的第一代刀片,发展到了强调整体综合性能、高生产力的第三代刀片产品。

中国大庆石油管理局就采用了惠普的HP BladeSystem构建了一个包含656节点的高性能计算机系统。该系统部署在大庆油田研究院,集群刀片系统承担着地震资料处理的重任,它由1432颗处理器组成的刀片系统组成,浮点计算能力超过了每秒9.8万亿次,位居中国刀片系统集群榜首。放眼未来,刀片系统必将成为企业级用户构建适应性IT基础设施提升竞争力的首选系统。

曙光公司总裁历军在一次产品战略会上表示,刀片系统的用途将不仅仅限于服务器、存储等后台设备,也许有一天,刀片式的工作站、刀片式的台式机也将出现在用户的面前。刀片系统的管理也不限于后台,也许网络管理员还会通过网络管理到每个人的刀片台式机,进一步提升系统的效能与成本,“一切都是刀片”不是不可能。

中国惠普的陈鸣先生认为,用刀片构建HPC,相比用机架式服务器构建HPC,具有几个优势:可以节省机柜空间,系统密度高;节省电力,刀片系统的能耗明显比机架系统低;三容易部署与管理,刀片采用模块化架构,需要就可以插入,没有太多的线缆,都在机架内完成;集成了网络设施,可以配置10G光纤通道与InfiniBand等。

未来的两到三年,刀片式服务器将以其高密度、快速部署与维护、全方位监控管理融合、高可扩展性、高可用性等,全面取代机架式服务器,成为高性能计算中集群体系架构所采用的主力。甚至由专家预言,基于刀片式服务器的集群系统将从2006年开始快速进入市场。

4.操作系统――Linux受到热捧

在构建HPC时,一般常用的操作系统包括Linux、Unix、Mixed、BSD Based、Mac OS等。Unix大家比较熟悉,包括IBM AIX、HP UX、Sun Solaris等。Unix伴随着64位RISC处理器技术的发展进入了全盛时代。高端计算机应用首先进入了“64位RISC+Unix”计算的新阶段,Unix随之进入了全盛时期,成为最热门的技术,市场容量超过几百亿美元。甚至有人说:“地球是在Unix系统上运转的!” Unix的未来前途在高端,它将继续在企业级服务器、中档高端服务器市场中占领先地位。基于BSD的系统与Unix系统类似,而FreeBSD 和 Linux 一样是个免费的,最主要的差异是,Linux是从头到尾重新发展的, 而FreeBSD是基于4BSD(柏克来大学软件)发展而来,且FreeBSD是比较封闭的。

不容否认,开源的Linux更受用户欢迎,在HPC中的增长令人刮目相看。从TOP500的数据可以看出,HPC操作系统的发展与变迁。2000年,TOP500中采用Unix占到了65%,而到了2006年,TOP500中采用Linux却占到了74%。

目前,在2006年下半年的TOP500中,在操作系统方面,Linux仍是应用最为广泛的操作系统,其上涨势头较快,从一年前的318台上升到376台。而Unix的使用量则相反,降幅很大,从一年前的154台下降到86台。另外,TOP500中有32台机器使用了混合型操作系统,这也是一个值得关注的方面。

5.处理器――多核处理器趋热

在HPC中应用的处理器多种多样,其中包括Intel的Xeon、酷睿Dual Core、安腾,AMD的单核与多核Opteron,IBM的PowerPC、Power,HP的PA-RISC、Alpha,Sun与富士通的SPARC64等。

我们可以为2006年下半年的TOP500中使用的处理器排序。使用最多的仍为Intel处理器,这样的系统总共有261台(占总数的52.2%),与一年前的333台(占66.6%)相比,呈下降趋势。使用AMD Opteron系列处理器构建的系统达到了113台(占22.6%),一年前仅为55台(占11%),这也使AMD处理器一举超越了IBM Power处理器,成为TOP500使用第二多的处理器。实际上,使用IBM Power处理器的系统也出现了小幅攀升,从一年前的73台增加到93台。

双核处理器已经得到广泛使用。在TOP500中有76台系统使用了AMD Opteron双核处理器,显示了Opteron双核处理器的强大生命力;而31台采用最新Intel Woodcrest双核芯片的系统也给人以深刻的印象。同时,双核安腾和Power等也被普遍采用,双核处理器很快就成为HPC的主流。

专家估计,四核处理器将很快在HPC中应用。设在美国得克萨斯大学奥斯汀分校的得克萨斯高级计算中心(TACC)正与Sun公司联合开发具有超过400Tflops峰值计算能力的超级计算机系统。该系统基于Sun Fire x64(x86, 64位)高性能服务器和Sun StorageTek磁盘与磁带技术;配备13000多个AMD公司预计2007年中期开始批量生产的四核微处理器;主存储容量为100TB,磁盘存储容量为1.7PB。

6.互联――千兆以太网

与InfiniBand双雄争霸

网络是集群中各个节点相互连接和协同工作的基础。在实际的集群系统中,通常采用有两套彼此独立的网络。一套是普通百兆以太网,用于系统管理和文件服务等普通网络通信,另一套是高速网,主要负责并行计算的消息传递和数据交换。在TOP500中,集群采用的高速网主要有Gigabyte Ethernet、10Gb Ethernet、Myrinet、InfiniBand、PathScale的Infinipath、IBM的SP网络、Dolphin SCI、SGI的Numa-Link、Gray的RapidArray等。而集群中使用最广泛的高速通信网络为千兆以太网和InfiniBand。

在2006年的TOP500中,Gigabit Ethernet(千兆以太网)仍然是使用最多的系统互连网络,但采用数量已经从6个月前的256台下降到213台。而采用InfiniBand技术的系统则从6个月前的36台增长为78台,显示出该网络的强劲发展势头。

采用千兆以太网的优势在于:千兆以太网提供10倍于快速以太网的传输交换性能,并与现有的10/100Mbps以太网标准、CSMA/CD协议完全兼容,同时千兆以太网支持以太网、快速以太网的802.1QVLAN标准、802.1p优先级标准及802.3x流量控制协议,将使企业能够在升级至千兆性能的同时,保留现有的线缆、操作系统、协议、桌面应用程序和网络管理战略与工具;千兆以太网具有更有效的带宽优势,并且具有良好的发展空间,10G以太网技术与基于以太网帧层及IP层的优先级控制机制和协议标准及QoS支持技术日趋成熟,为高要求服务质量提供了保证基础。

InfiniBand 完备的通信协议和网络底层的实现技术借鉴了以太局域网、光纤通道存储网络和广域网络的研究经验,因此具有很强的通用性。由于InfiniBand具有工业标准、10Gb/s高性能的互联、成本低廉、高QoS和RAS性能等诸多特点,得到了越来越广泛的应用。InfiniBand总线拓扑结构是基于分组交换点到点连接的fat tree结构,有很好的扩展功能。它既能以PCB的形式提供芯片与芯片的互联,还能以电缆线的形式提供“out of the box”设备与设备之间的互联。每个单独的链接通道是4根信号线组成的双向数据通道,双向理论带宽是5Gb/s。InfiniBand体系结构中包含5个基本层,自下向上依次是物理层、数据链路层、网络层、传输层和上层软件应用层,其中前4层是通过硬件完成的。在InfiniBand结构中还单独定义了一个Subnet Manager的概念,它用来配置网络单元、错误报告、链接错误排除、机箱管理等等。InfiniBand每个单独的链接通道是4根信号线,2根输入、2根输出,每个数据方向是2.5Gb/s的带宽,目前的DDR方式能够达到单通道单方向5Gb/s带宽,在DDR方式下的双向带宽是10Gb/s。而且不同的通道之间还可以组合成为一个端口,这样带宽就可以成倍的增长。由于目前InfiniBand支持到DDR,所以最高的理论带宽是60Gb/s。

从近几年来TOP500中所采用的网络的数量变化可以看出,Myrinet作为经典的高速网络在TOP500中一直占有较大份额,但2005年被迅速增长的千兆以太网超过;而InfiniBand方兴未艾,从2003年出现以来,每年以大约三倍速增长,发展势头甚至超过了千兆以太网。可以预测,未来几年InfiniBand将成为集群高速网络的增长点。

7.存储――需求直线增长

增强计算能力的重要性不言而喻,因为科学家们要依靠计算机模型来模拟极端复杂的现象,如全球气候变暖、地震运动、核聚变以及全球疾病传播等。计算机模拟使科学家们能够深入了解这些过程,而这是通过常规的观察或实验无法实现的。美国总统信息技术顾问委员会(PITAC)2005年认为,强大的计算能力对于保持美国的经济竞争力,确保美国在科学技术领域的领导地位,以及维护美国的国家安全,都是至关重要的。

高性能计算篇3

从今年7月开始,惠普开展了为期半年、涉及全国20个油田的高性能计算机应用巡展,石油行业用户对由刀片和集群构建的高性能计算机非常热衷,对这种高性能计算机所表现出的高性能、低能耗、易管理、易扩展等特性赞赏有加。

无独有偶,随着最新一期的全球最快计算机排行榜(TOP500)于11月30日出炉,专家关于刀片+集群快速增长的预言成真。在TOP500中,采用刀片和集群架构的高性能计算机数量大幅增加,成为TOP500中增长最好的一种类型。惠普入围TOP500的系统中,95%是采用刀片服务器。

刀片保证投资回报

早在两年前,就有专家预言:未来的2~3年内,刀片式服务器将以其高服务器密度、敏捷式部署维护、全方位监控管理融合、高可扩展性与可用性,全面取代传统基于机架式服务器的集群系统,基于刀片式服务器的集群系统将得到大量应用。

事实表明,基于刀片服务器的集群系统的潜力正在逐渐释放。2006年的中国TOP100排行榜显示,超过70%的系统采用了集群体系结构,而值得关注的是,其中有26套是刀片服务器集群系统,惠普和IBM分别占有13套和11套。在这26套系统中,有17套用于石油勘探,6套用于网络游戏。

中国惠普有限公司副总裁,商用产品事业部总经理杨诺础认为:过去,用户大量采用基于PC服务器的集群系统,并在过去3~5年成为一个主流发展方向。不过在最近两三年,基于刀片服务器的集群系统开始大范围推广应用。在中国,石油行业是采用刀片服务器最多的一个行业。

在分析形成这一趋势的原因时,江汉油田勘探开发研究院计算机中心的总工程师罗忠辉认为,刀片服务器作为一种高可用高密度的低成本服务器平台,在高密度、易扩展和低成本方面都更适合地震资料处理等石油行业的关键应用需求;同时,刀片式服务器集群节点密度高于传统的1U机柜,占地面积更少,可以在有限的空间整合巨大的运算能力,即使在未来增加更多的节点,也不需要考虑机房空间问题;在通风、耗电等方面,比1U机柜更适合地球物理的应用;在密集型的高性能计算中,刀片式服务器在布线和相互连接方面比传统的机架式服务器又有很大的改进。

而杨诺础认为,石油行业在IT应用上与大部分行业不一样的地方是更重视投资回报,IT应用与企业的回报率直接挂钩,勘探的一个误差会导致几十万美元的成本增加。采用刀片构建集群系统,可以降低风险成本,IT投资回报率比较明显。

两大典型应用

在中国,高性能计算机应用已经有十多年的历史,用户在选择适合自己的系统上更显理性。相比用机架式服务器构建HPC,用刀片构建HPC具有更多优势:它可以节省机柜空间,系统密度高;节省电力,刀片系统的能耗明显比机架系统低;容易部署和管理,刀片采用模块化架构,需要就可以插入,没有太多的线缆,都在机架内完成;集成了网络设施,可以配置10G光纤通道与Infiniband等。

在中国石油行业,两大基于刀片的集群系统广受好评。第一个集群系统是部署在大庆油田公司勘探开发研究院的刀片服务器集群地震资料处理系统。该系统采用惠普开发出的刀片服务器架构,集成了692台惠普第三代服务器产品――HP BL20PG3、HP DL380G3和HP DL580G3三种服务器,选用了1432个Intel 至强CPU,其峰值浮点计算能力超过 9.8万亿次,位居中国刀片服务器集群系统榜首,是国内处理规模最大的地震资料处理系统。该处理系统用于大庆探区地震资料的高分辨目标处理和叠前偏移处理,使大庆油田公司勘探开发研究院具备了二维地震资料目标处理2万公里、三维叠前偏移处理1万平方公里的年处理能力。

刀片服务器集群系统采用惠普的刀片服务器架构。整个系统由常规计算节点、偏移计算节点、管理节点、I/O节点、核心交换网络和管理网络组成,并安装了Redhat Linux AS 3.5版本操作系统、CMU和SIM集群管理及监控等系统软件,利用惠普公司开发的iLO高级管理技术,实现服务器集群的远程管理。常规计算节点采用200多台HP ProLiant BL20pG3刀片服务器,千兆网络端口直联,安装在6个机柜中。HP ProLiant BL20pG3采用2个Intel 至强3.4 GHz DP处理器。而偏移计算节点则采用400多台HP ProLiant BL20pG3。

另一个典型系统部署在中国地球物理界最大的专业服务公司――中国石油集团东方地球物理公司研究院大港分院。大港分院采用了HP高性能计算集群系统,以HP刀片式服务器作为计算节点,实现二维常规处理12000公里、三维常规处理6000平方公里、迭前偏移处理3000平方千米的年处理能力,使大港分院地震资料处理能力和处理水平大幅度提升。

大港分院选用了由HP提供的包括硬件和软件在内的整套高性能计算方案,包括119个HP ProLiant BL20P节点、14个基于Intel至强处理器ProLiant DL380G2作为I/O节点,以集群技术组成超级并行计算机作为地震资料处理的主机系统,共131个节点,262个处理器,整体计算能力实现浮点计算达1.4万亿次/秒。

在整套系统中,硬件系统包括:I/O节点采用主频为3.06Hhz的HP ProLiant DL380G2 2U机架式服务器,计算节点采用主频为2.8Hhz的HP ProLiant BL20pG2刀片式服务器,监控分发节点采用HP ProLiant DL380G2 2U机架式服务器,物理节点采用HP ProLiant DL360 1U机架式服务器,互连网络系统采用HP ProCurve Switch 高性能网络交换机,每套PC-Cluster计算机系统由两个网络系统组成,一个为高性能的千兆以太网传输数据信息,一个为10/100快速以太网传输管理控制信息;存储系统采用HP Smart Array机群阵列盘柜。

管理和服务最被看重

那么,用户选择刀片的标准是什么?江汉油田勘探开发研究院计算中心总工程师罗中辉指出,用户最看重的是管理和服务。大港分院副总工程师兼计算机服务中心主任张武斌也认为,以刀片服务器为节点的高性能集群系统试运行以来,最大的感觉之一就是系统管理方便了。HP提供的集群系统管理软件Cluster Management Utility管理功能全面,还具有远程管理特性,使用户能够在任何终端管理集群系统,查看机器的运行状况。“现在,我们在自己的办公室里就可以管理这套系统,不必再跑到机房了,非常便捷。”

集群系统管理软件Cluster Management Utility(CMU)是一个Beowulf Cluster系统环境下的管理软件,它提供了友好的图形用户界面。比如,CMU使用了RILOE板并集成了iLO的特性,使远程文本控制台在服务器的所有状态下均可远程控制服务器电源。无论服务器处于何种状态,远程BIOS设置借助独立于CMU的WEB浏览器,远程访问图形控制台。由于CMU具有将一个节点的系统磁盘分区克隆到其他集群节点的能力,能够避免对集群中各节点进行系统安装或配置所带来的耗时、费力的工作,这一特性使大港分院能够在3天内就完成了集群系统的安装。

高性能计算篇4

关键词:高性能计算;分布式供电系统;电压调节模块;自适应电压定位

中图分类号: TP303.3 文献标志码:A

Design of power supply for high.performance computer system

YAO Xin.an1,2*, SONG Fei1, HU Shi.ping1

1.School of Computer Science, National University of Defense Technology, Changsha Hunan 410073, China;

2.School of Electrical and Information Engineering, Hunan University, Changsha Hunan 410082, China

Abstract:

To meet high efficiency, low cost and high reliability power requirements of high-performance computer system, 12V DC bus distributed power system was developed in this paper. The block diagram and operation principle of power supply for cabinet and motherboard were described. The voltage regulator module for processor in motherboard was analyzed in detail. Based on adaptive voltage position control, the small-signal model of voltage regulator module was presented, and output impedance and system control bandwidth were discussed. Following the proposed design guidelines of compensator, experimental results demonstrated very good transient response. The application results show the proposed power supply can fully meet the power requirements of high-performance computer system.

To meet high efficiency, low cost and high reliability power requirements of high.performance computer system, 12V DC bus distributed power system was developed in this paper. The block diagram and operation principle of power supply for cabinet and motherboard were described. The voltage regulator module for processor in motherboard was analyzed in detail. Based on adaptive voltage position control, the small.signal model of voltage regulator module was presented, and output impedance and system control bandwidth were discussed. Following the proposed design guidelines of compensator, the experimental results demonstrate very good transient response. The application results show the proposed power supply can fully meet the power requirements of high.performance computer system.

Key words:

high.performance computer; distributed power system; voltage regulator module; adaptive voltage position

0 引言

高性能计算是衡量一个国家科技创新能力和综合国力的重要标志。长期以来,在全球高性能计算TOP500排行榜中,美国一直占据榜首位置,而且在数量上也占绝对优势[1-4]。以国防科学技术大学计算学院为代表的国内高性能计算研制人员,一直致力于提高中国的高性能计算技术水平,力图打破美国的长期垄断局面。2010年10月,国防科学技术大学研制的天河一号超级计算系统,以峰值性能每秒4700万亿次、持续性能每秒2566万亿次的优异表现,双双刷新了世界超级计算系统运算速度记录,在TOP500中首次排名世界第一[5],使中国的高性能计算水平向前迈进了一大步。

电源是高性能计算系统的关键组成部分,主要功能是将交流市电转换成高质量、高效率、高可靠的直流低电压,供给处理器和内存及其他负载。随着处理器功耗越来越高,系统规模越来越庞大,千万亿次的计算系统总功耗已经达到兆瓦级,这些都使电源设计越来越具有难度和挑战性。

近年来国内外期刊杂志和会议论文,只有少数几篇文章涉及到高性能计算电源设计领域。文献[6]介绍了高性能计算电源设计的关键技术,如电源架构的选择、电源可靠性的提高等,但是没有提出具体的电源设计;文献[7]则介绍了采用48V/12V两级母线直流分布式供电系统的某高性能计算电源设计和稳定性分析方法,但是该系统规模有限,电源效率还有待提高。

为了提高兆瓦级高性能计算系统的电源效率,降低研制和运营成本,本文采用了12V一级母线直流分布式供电架构,设计和实现了某高性能计算系统的全部电源。文中提出的电源设计和分析方法,给国内外同行提供了一定的参考价值。

1 总体设计

在某高性能计算系统中,单板供电电压种类多达数十种,单板总功率达到800瓦,最大动态响应能力高达数百安培每微秒,单柜最大功耗为60千瓦,系统总功耗约为6兆瓦。同时,在电压稳定度、输出电压纹波、电源效率、可靠性、维修性等方面要求非常严格。同时,要求所有插件能够热插拔和热更换。针对这些要求,采用了12V一级母线直流分布式供电系统架构。

该系统由一百多个柜组成,其中包含计算柜和互连通信柜。在电气上每个柜相互独立,柜之间采用光纤实现数据通信。

高性能计算篇5

产业机会

星级评定:4

2008年将会是高性能计算领域获得长足发展的一年,各国对于高性能计算机的应用将会稳步扩展,相关厂商之间在高性能计算机领域之间的竞争趋于激烈,而相关的高性能技术发展则趋于成熟。

基于x86芯片、以集群形式构筑的高性能计算机将成为主流,千兆以太网、Infiniband将会取代Myrinet等连接技术成为高性能计算机领域最重要的互联技术,Linux将继续是高性能计算机领域占统治地位的操作系统。刀片服务器将会在高性能计算机中扮演重要角色,成为构筑高性能计算机的关键力量。

不过,由于高性能计算机领域硬件发展远快于软件开发,因此,在2008年,相关应用的开发以及高性能计算应用人才的培养,也将是整个领域的热点。

由于高性能计算机的竞争代表着国家技术发展水平以及科技应用水平,也代表着制造企业的技术能力,因此,明年各国将会进一步提升高性能计算机的能力,各大企业也会进一步抢夺各种高性能计算机制造合同。

此外,在2008年的高性能计算领域,中国将会首个百万亿次高性能计算机,而全球范围也将有可能诞生首个千万亿次高性能计算机,每年国产高性能计算机Top 100的榜单以及全球TOP 500超级计算机的榜单,也将吸引更多人的注意。

应用前景

星级评定:5

随着芯片技术的发展,高性能计算机的性能将会大幅度攀升,相对而言价格将会大幅度下降,即高性能计算机的性价比将大为提高。这也使得此前在价格上高不可攀的高性能计算机,能够在更广大的范围内得到应用。

而随着微软高性能计算机版本操作系统Windows Compute Cluster Server(WCCS)的成熟,高性能计算机应用的软件门槛也会进一步降低,其应用有望得到进一步拓展,尤其是是中低端的高性能计算应用将会获得快速发展,高性能计算机应用将会快速“平民化”。

此外,由曙光公司牵头发起的中国电子工业标准化技术协会高性能计算机标准委员会,在2007年4月份通过民政部的审批之后正式成立。

高性能计算机标准委员会的成立,将进一步推动制定高性能计算及应用的相关技术标准和规范,同时提出促进产业与应用发展的相关意见。此举标志着高性能计算正式进入标准化的快速发展阶段,将快速推动我国高性能计算产业的发展。

因此可以说,2008年高性能计算的软、硬件技术将会更趋成熟,将会有越来越多的企业享受到高性能计算的优势。

高性能计算篇6

关键词:科学计算;大数据处理;超级计算机;模拟仿真;并行计算

1引言

在现代科学研究和工程实践中,通常使用数学方程式来表示某些自然科学规律,产生了众多复杂繁琐的数学计算问题[1]。基于普通计算工具来解决这些问题,将耗费大量人力物力,甚至无法得到准确结果。而科学计算[2],利用计算机仿真、重现、预测或探索自然世界万物运动规律和演变特性的全过程,通过研究合理的计算方法,设计高效的并行算法,研制合适的应用程序,能准确、高效地模拟各领域研究过程,分析计算结果。然而,普通计算机的科学计算能力往往是有限的,现有的计算能力无法高效地解决某些基础学科和工程技术部门的科学计算问题,如长期天气预报、石油勘探、飞机整体气动力等等。

与此同时,地震检测仪、粒子碰撞器、天文望远镜以及高通量分析装置等大型科学仪器的研制和发展[3],产生了大量非结构化或半结构化的数据,使得“大数据”趋势变得越来越突出[4]。如今,许多科学发现和见解由大量数据集驱动,“大数据”被认为是除了实验、理论和计算方法之外的第四种科学范式[5]。数据生成的容量、速度和多样性构成了分析大数据的主要挑战。

为提高科学计算能力,解决大数据问题,高性能计算(HPC)[6]技术迅猛发展。高性能计算机代表用于解决计算密集型科学和工程问题的高端计算基础设施。我国的高性能计算早已突破每秒浮点运算千万亿次的壁垒,并继续解决性能、可扩展性、可编程性、能效和可靠性等问题,探索新的支持技术以达到e级计算能力。

目前,高性能计算机已在多个领域得到了成功的应用[7],但仍存在大量可供多个研究机构使用的空闲节点。本文简介了一些高性能计算机系统及其性能,针对近年来在高性能计算机上的各大领域应用实例进行总结,并对在其他领域的应用做出了展望,以促进更高效、全面地使用高性能计算机。

2高性能计算机系统概述

中国首台千万亿次超级计算机,是“天河一号”。“天河一号”超级计算机使用由中国自行研发的“龙”芯片,其峰值计算速度能够达到1.206TFlop/s,同时Linpack实测性能达到了0.563TFlop/s,该超级计算机位居当时公布的中国超级计算机前100强之首,中国成为了继美国之后世界上第二个能够自主研制千万亿次超级计算机的国家。

天河一号采用6144个英特尔通用多核处理器和5120个AMD图形加速处理器,其内存总容量98TB。至于点对点通信的带宽就达到了40Gbps,而其用于共享的磁盘总容量则达到1PB。该超级计算机系统部署于天津滨海新区的国家超级计算天津中心作为业务主机。

2013年,由国防科学技术大学研制的“天河二号”大型超级计算机以每秒33.86千万亿次的浮点运算速度成为全球最快的超级计算机,位列国际大型超级计算机TOP500榜首。随后,“天河二号”实现了世界最快超算“六连冠”。天河二号采用基于加速器的架构[8]。在可接受的总成本、功率预算、支持可靠性、可用性和可服务性(RAS)的能力、应用开发和移植的复杂性下提供高的计算性能。

天河二号的硬件系统由五个子系统组成,包括计算系统、通信系统、存储系统、监控诊断系统和服务系统。它由16000个节点组成,每个节点有2颗基于IvyBridge-EXeonE52692处理器和3颗XeonPhi,每个节点的内存是64GB。所有的计算节点都通过专有的高速互连系统连接。还提供了一个服务子系统的4096个节点,以加快高吞吐量的计算任务,如大数据处理。存储子系统包括256个I/O节点和64个容量为12.4PB的存储服务器。天河二号文件系统命名为h2fs,采用麒麟操作系统、基于SLURM的全局资源管理。支持大多数现代编程语言,包括C、C++、Java、Python等。采用的是新型异构多态体系结构(Multipurpose-Heterogeneous)[9]。

天河二号的系统配置列于表1中。

“天河二号”集科学计算、大数据分析和云计算于一体,被认为是满足工业和社会需求的战略基础设施。以超级计算机为支撑的高性能计算应用正加速向各个领域渗透。

Table1SystemindicatorsofTianhe-2

表1天河二号系统指标

width=375,height=252,dpi=110

在国内早期的高性能计算机研究中,2004年6月超级计算机曙光4000A研制成功,落户上海超级计算中心,标志着继美国和日本之后,中国是第三个能研制10万亿次高性能计算机的国家。曙光能够每秒运算11万亿次,进入全球超级计算机前十名。经过十多年发展,曙光E级高性能计算机系统项目现在是国家“十三五”期间高性能计算的重点专项,其最显著的特点是突破了制约E级计算发展的各个关键技术,通过这样原型机的研制去验证E级的技术路线,为未来真正实现国产E级系统做技术铺垫。

width=642,height=303,dpi=110

Figure1StructureofSugon’sCPU

图1曙光CPU结构

在2016年法兰克福世界超算大会上,“神威·太湖之光”超级计算机系统成为新的榜首,速度较第二名“天河二号”快出近两倍,效率提高三倍。

神威·太湖之光超级计算机由40个运算机柜和8个网络机柜组成。每个运算机柜包含4块由32块运算插件组成的超节点。每个插件由4个运算节点板组成,一个运算节点板又含2块“申威26010”高性能处理器。一台机柜就有1024块处理器,整台“神威·太湖之光”共有40960块处理器。每个单个处理器有260个核心,主板为双节点设计,每个CPU固化的板载内存为32GBDDR3-2133。

在2018年的法兰克福世界超算大会上,美国能源部橡树岭国家实验室(ORNL)推出的新超级计算机“Summit”以每秒12.23亿亿次的浮点运算速度,接近每秒18.77亿亿次峰值速度夺冠,“神威·太湖之光”屈居第二。

3高性能计算机各大领域应用实例分析

为充分发挥高性能计算机的优势,极大限度地满足客户需求,自超级计算机在中国开始发展以来,相关团队都致力于扩展高性能计算在各个领域的利用,迎合各领域应用的计算要求,协助用户配置应用环境,建立高效模型,设计合理并行算法,以实现各领域的科学计算和大数据处理在高性能计算机上的应用。

3.1生物计算与精准医疗

根据广州国家超级计算中心的内部统计[10],生物医学相关应用现在是超级计算中心的主要客户。生物医学研究主要包括生物大分子的结构模拟与功能建模,药物设计与筛选,蛋白质序列分析,基因序列分析与比对,基因调控网络的分析与建模,医疗卫生的双数据分析及生物医学文献挖掘等。

生物医学数据繁多,且一直呈指数增长。如世界最大的生物数据保存者之一,欧洲生物信息学研究所(EBI),存储超过20PB的数据,并且最近每年的数据量都增加一倍[11]。数据源的异质性,包括基因组学、蛋白质组学、代谢组学、微阵列数据、文献等,使其更加复杂。

针对典型类型的大数据——基因组大数据,在大数据框架(如Hadoop和Spark)的帮助下,云计算已经在大数据处理中发挥着积极作用。现在,HPC在中国的快速发展使得以不同的方式解决基因组大数据挑战成为可能。Yang等人[12]强调了在现代超级计算机上增强大数据支持的必要性,提出只需单个命令或单个shell脚本就能使当前的大数据应用在高性能计算机上运行,并且支持多个用户同时处理多个任务的Orion作为高性能计算机的大数据平台。该平台可以根据大数据处理需求,合理分配所需的资源量,并使用HPC系统软件栈自动建立和配置可回收的Hadoop/Spark集群。以华大基因提供的基因组学大数据作为案例研究,测试基因组分析流水线SOAPGaea的FASTQ过滤、读取对齐、重复删除和质量控制四个过程,证明了Orion平台的高效性。

为更好地了解基因的精细结构、分析基因型与表现型的关系、绘制基因图谱,DNA序列分析成为生物医学中的重要课题[12]。

DNA序列的排序是对DNA序列分析的基础[13]。通常先使用测序仪得到生物体基因组的一些片段,再利用计算机对片段进行denovo拼接,从而得到DNA序列的排列顺序。而随着测序仪的发展,基因组的数据量增大,分析复杂性提高,普通计算工具分析数据会消耗大量时间和空间。张峰等人[14]基于高性能计算机,使用一种新型序列拼接工具SGA(StringGraphAssernbler),对任务之间数据耦合度小的分批构建FM-Index,采用粗粒度的多进程并行;对任务之间数据耦合度较大的FM-Index合并过程,采用多线程的细粒度并行。这种多进程与多线程的混合并行策略,使用并行计算代替通信开销,测试小规模数据时,将索引构建时间的最佳性能提高了3.06倍。叶志强等人[15]在基因组排序时,引入随机listranking算法,基于高性能计算机,使用MPI并行实现Pregel框架的线性化步骤,利用节点之间的通信和计算能力,减少了线性化步骤时间。

SNP(单核苷酸多态性)检测是DNA序列分析的关键步骤[16]。它将对齐的read、参考序列和被编排的数据库(如数据库SNPP)作为输入,通过站点检测对齐的read和引用站点的信息,生成SNP站点的列表。SNP检测工具SoAPSNP可以用一个多星期的时间来分析一个覆盖20倍的人类基因组。崔英博等人[17]通过重新设计SOAPSNP的关键数据结构以降低内存操作的开销,设计CPU与XeonPhi协作的协调并行框架,以获得更高的硬件利用率。并提出了一种基于读取的窗口划分策略(RWD),在多个节点上提高吞吐量和并行规模,开发了SOAPSNP的并行版本MSNP,在没有任何精度损失的情况下,利用高性能计算机的一个节点实现了45倍的加速。

方翔等人[18]利用高性能计算机,构建了由基因组与转录组测序数据分析、蛋白质结构预测和分子动力学模拟三个功能模块组成的生物信息平台分析水产病原,对约氏黄杆菌等多种水生动物病原进行生物信息学分析。

从生物医学文献中提取有价值的信息的一种主流方法是在非结构化文本上应用文本挖掘方法。然而,大量的文献需要分析,这对文本挖掘的处理效率提出了巨大的挑战。彭绍亮等人[19]将针对疾病实体识别的软件DNorm加入可高效识别基因、蛋白质、药物、基因通路等实体关系的文本挖掘工具PWTEES流水线中,扩充了PWTEES的功能。使用LINNAEUS导入MEDLIN数据库提供的摘要,并在个人账户目录下,动态使用计算节点,编译安装配置了非关系型数据库(MySQL),将大量非结构化数据(文献)转为结构化数据。将平时在普通服务器上需100天能完成的文本挖掘过程缩短为1小时,并利用200个进程并行挖掘7万篇头颈癌相关文献中的关键命名实体,得到了80%以上的并行效率。Xing等人[20]开发了一个可运行的框架PARABTM,它能够在超级计算机上实现并行文本挖掘。以GNormPlus、tmVar2.0、Dnorm三种命名实体识别任务为例,对多个数据集上PARABTM的性能进行了评价。结果表明,使用PARABTM并行处理策略中的短板匹配负载平衡算法(Short-Boardloadbalancingalgorithm),最大程度地提高了生物医学命名实体识别的处理速度。

3.2全数字设计与制造

数字设计与制造是一种以计算机系统为中心的集成制造方法。随着制造工厂中计算机系统数量和质量的提高,数字化趋势迅速。越来越多的自动化工具被用于制造工厂,有必要对所有机器、工具和输入材料进行建模、模拟和分析,以优化制造过程。而模拟能够建模和测试一个系统行为特性,让工程师能够用更低耗、更快速同时更安全的方式来分析所做的设计会产生什么样的影响。模拟的应用范围广泛,涵盖了产品设计、过程设计以及企业资源安排[21]。在模拟过程中,利用超级计算机强大的计算能力,使工程师能在几分钟或几小时内仿真和测试数千种设计方案。

利用数字化的方式,可以对产品进行结构力学分析、流体力学分析、电磁设计和多物理场模拟等多种计算仿真。

在计算流体力学CFD(CcomputationalFluidDynamics)领域的一大热点研究问题就是如何在当前主流的众核异构高性能计算机平台上进行超大规模计算。杨梅芳等人[22]在高性能计算机的单个节点上,利用超然冲压发动机燃烧数值模拟软件LESAP模拟一个实际发动机燃烧化学反应和超声速流动的问题,采用OpenMP4.0编程标准,向量化SIMD,优化数据传输过程,均衡基于网格块划分的负载技术,实现了软件面向CPU+MIC异构平台的移植,达到了3.07倍的性能加速比。王勇献等人[23]面向高性能计算机探索了高阶精度CFD流场数值模拟程序的高效并行性。在高性能异构并行计算平台上进行了多个算例的数值模拟的结果显示最大CFD规模达到1228亿个网格点,共使用约59万CPU+MIC处理器核,实现了移植后的性能大幅度提高。通过将算法移植到超级计算机进行大规模并行,能够实现高效的流体力学分析。而文献[24-26]都是针对空气动力学中的具体分类利用高性能计算机进行模拟以验证有效性的研究。利用数字化设计,能够快速低成本地对设计性能进行分析评估。

在图像模拟中,Metropolis光传输算法能够利用双向路径跟踪构建出由眼睛到光源的路径,是MonteCarlo方法的变体。然后,使用Metropolis算法静态计算图像中光线的恰当的散射状态,由一条已发现的光到眼睛的路径,能搜索到邻近路径。简单地说,Metropolis光传输算法能够生成一条路径并存储其上的节点,同时能通过添加额外节点来调整并生成新的路径。随着对照片级真实感图像的要求越来越高,为Metropolis光传输算法开发高效且高度可扩展的光线跟踪器变得越来越重要。主要是渲染图像通常需要花费大量时间,开发高效且高度可扩展的光线跟踪器的困难来自不规则的存储器访问模式、光携带路径的不平衡工作量以及复杂的数学模型和复杂的物理过程。Wu等人[27]提出了一种基于物理的高度可扩展的并行光线追踪器,并在高性能计算机上进行了实现,利用多达26400个CPU内核,证明了其可扩展性,能够从复杂的3D场景生成逼真图像。

模拟高场非局部载流子传输同样需要3DMonteCarlo模拟方法,通过适当的量子校正涵盖散射效应,半经典的MC模拟能够给出准确的结果。但是,MC方法中3D模拟和量子校正都需要巨大的计算资源[28],由效率出发超级计算机的计算能力就至关重要了。文献[29]中,通过在高性能计算机上使用IntelMIC协处理器,进一步提高了之前工作中开发的3D并行的继承MC模拟器的并行效率。

对于高性能计算机在全数字设计和制造领域的集成应用,国家超级计算广州中心推出了天河星光云超算平台,以云服务的方式提供CAE计算和HPC访问,大大降低了数字设计的门槛,支持产品设计的全工作流。目前基于该平台支撑的项目有诸如国产大飞机、高铁等,都是国家工业生产中重要项目[30]。

3.3地球科学与环境工程

基于该应用领域,超级计算机的主要作用在于变革对自然界中诸如地理状况、海洋、大气等种种元素的模拟方式。以超算为平台,不仅能模拟出地球上每个时期的状况,甚至是对宇宙中的种种同样能进行模拟分析,让地球科学和环境工程的研究范围不再限于此时此地,而是更广阔的空间。

在宇宙学的层面,早在2015年就利用高性能计算机模拟出宇宙大爆炸后1600万年之后至今约137亿年的暗物质和中微子的演化过程,并将进一步寻找宇宙边界的报告[31]。中微子虽然是自然界中的基本粒子之一,在宇宙大爆炸约1s后与其他等离子体物质退耦,形成看不见的宇宙背景,通过物理实验和实际的天文观测都无法精确测量中微子的质量。在高性能计算机平台上,利用3万亿粒子来对宇宙中的中微子和暗物质的分布和演化进行模拟,开创了宇宙学中独立测量中微子质量的道路。

在地球层面上,大气变化同样是一个关注点。Xue等人[32]提出了一种基于高性能计算机的全球性大气动态模拟的混合算法。通过使用更灵活的域分区方案来支持节点中任意数量的CPU和加速器,算法能够充分利用超算的优良性能。当使用8664个节点,包括了近170万个核心时,可以有效地利用节点内的三个MIC卡,对两个IvyBridgeCPU(24个内核)实现4.35倍的加速。基于成功的计算-通信重叠,算法分别在弱和强缩放测试中实现了93.5%和77%的并行效率。

相较于广袤无边的宇宙,大部分人们对于脚下的土地更加关心。自然灾害如地震、泥石流等,可能会造成巨大的生命财产损失,而地下油气资源又是经济社会发展所必需的,利用超级计算机去探索大地也是发展所需要的。

中石油集团开发的用于石油油气勘探的GeoEast系统已经经过了十几年的发展更新,在数据模型、数据共享、一体化运行模式、三维可视化、交互应用框架、地震地质建模、网络运行环境和并行处理方面取得了多项创新与重大技术突破,是地震数据处理解释一体化系统。目前GeoEastV3.0版本软件总体达到国际同类软件先进水平,为推动中国石油勘探开发领域不断取得新成果发挥了重要作用[33]。但是,这样的一体化系统在使用中势必会产生大量的数据,这就对计算机的性能有了要求。因此,在GeoEast系统闻名世界的过程中,高性能计算机在幕后是功臣之一,保证了系统的顺利运行,助力石油勘探工作[34]。而文献[35]专注于地震模拟,提出了针对英特尔至强处理器的对于软件SeisSol的优化,以适用于高性能计算机的计算环境中,通过全摩擦滑动和地震波的耦合仿真实现了空前复杂的地震模型。移植到高性能计算机的SeisSol提供近乎最佳的弱缩放,在8192个节点上达到8.6DP-PFLOPS,在所利用的整个高性能计算机上能达到18~20DP-PFLOPS,成功模拟了1992年兰德斯地震。

3.4智慧城市云计算

城市发展经过多年的调整,已经在经济上有了相当进展,目前从如何让人们生活更加便捷出发,许多地区开始建设智慧城市。智慧城市(SmartCity)是指利用各种信息技术或创新意念,集成城市的组成系统服务,以提升资源运用的效率,优化城市管理和服务,进而能够提高居民生活质量。智慧城市的发展不仅仅是对生活的改变,还能促进生产方式的转变,解决在城市扩张及经济高速发展中产生的一系列“城市病”问题。智慧城市,代表的是城市的智慧,由智慧,能够衍生出智能中、知识和数字等更广泛的内涵[36]。

迄今为止,广州、北京、上海、宁波、无锡、深圳、武汉、佛山等国内城市已纷纷启动“智慧城市”战略,相关规划、项目和活动渐次推出。高性能计算机云平台应运而生,为智慧城市建立坚实、先进的基石。智慧城市由于其性能需求,对依赖的平台的计算能力的要求会更高,而超算的计算能力就能为智慧城市的建设提供相当助力。在2014年,就有中国首台千万亿次超级计算机“天河一号”在智慧城市中应用的报道,以其在天津滨海区的应用为例,“天河一号”的建筑信息领域的大数据平台通过对建筑信息建模,实现对建筑物从规划、设计、建造到后期物业管理理的全程数字化。此外,城市规划、气象预测、生物医疗、装备制造、汽车碰撞模拟等行业,也能更多地通过“天河一号”,实现大批量数据计算、分析和存储[37]。

而高性能计算机的持续计算速度进一步达到了亿亿次,所能提供的服务质量也更高,麒麟云平台被部署在1920个节点(15个机柜),其中64个节点(两个机框)作为云平台控制节点,其余节点为运行虚拟机的计算节点和分布式存储的存储节点。为方便管理,将计算节点进行分区管理,512个节点(4个机柜)为一区,用于满足生产环境、适配环境、测试环境需要。分布式存储没有分区,所有节点形成一个全局的分布式存储池,但在使用时可按需划分指定容量的区域供不同用途使用[38]。这种云超算服务采用麒麟安全云系统实现虚拟化技术,将虚拟机资源远程推送给用户使用[39]。可通过互联网远程管理虚拟机资源,使高性能计算机云平台资源能够被更多人使用,超算的计算能力能够更好地推动社会各个领域发展。2017年OpenStack的第15个版本中,麒麟云团队在核心功能解决的Bug数,以及Commits的数量均进入全球前20,麒麟云的发展是非常迅速的,与开源社区紧密结合,贡献突出[40]。

3.5材料科学与工程

在材料科学与工程的研究中,量子力学、经典动力学、统计力学是三大基础且主要的研究方向。研究人员致力于材料参数的建模、多尺度平台开发和新材料的设计、开发和优化。

分子动力学模拟在材料科学、生物化学和生物物理学等领域得到了广泛的应用。分子动力学(MD)是研究分子和分子的物理运动的计算机模拟方法,它提供分子尺度上的微观取样。基于能量细化的辅助建模AMBER(AssistedModelBuildingwithEnergyRefinement)[41]是用于MD模拟的使用最广泛的软件包之一。然而,对于具有百万原子级的系统的AMBERMD模拟的速度仍然需要改进。彭绍亮等人[42]在单CPU上的细粒度OpenMP并行、单节点CPU/MIC并行优化和多节点多MIC协作并行加速方面进行了改进。在高性能计算机上实现AMBER的并行加速策略,与原程序相比,实现了25~33倍的最高加速比。同时,对于计算资源的限制,分子动力学软件GROMACS不能大规模地进行满意的操作。Wang等人[43]提出了一种利用卸载模式加速GROMACS的方法。为了提高GROMACS的效率,提出了异步化、数据重组和数组重用等一系列方法。在这种模式下,GROMACS可以与CPU和IntelXeonPHITM多个集成内核(MIC)协处理器同时有效地配置,充分利用高性能计算机资源。

材料辐照效应(Materialirradiationeffect)是使用核能的重要关键之一。然而,由于高通量辐照设施和进化过程知识的缺乏,此效应的利用并不好。在高性能计算的帮助下,Hu等人[44]提出了一种新的数据结构,用于大规模并行模拟金属材料在辐照环境下的演化。基于所提出的数据结构,开发了一种新的分子动力学软件——CrystalMD,并在高性能计算机上进行了二兆个原子模拟,对MD辐射效应研究的模拟规模进行了扩展。

3.6其他领域

近年来,随高性能计算的推广,政府部门对超级计算机的重视,旧产业转向新产业的变化及大量有高性能计算需求的企业对超级计算机的需求增大,超算人才培养初见成效[45]。在应用软件开发等推动下,高性能计算机的适用范围逐渐向更多领域渗透。

源于人工神经网络的研究深度学习作为人工智能的一个新研究领域,在模仿人脑的机制来解释如图像、声音和文本数据上有了很大进展。例如,卷积神经网络(CNN)能准确地对大型图像进行识别处理,然而CNN的训练密集程度很高,特别是对于大型具挑战性的任务,卷积层的参数数据量庞大。而高性能计算机的易访问、高峰值等性能使学术界和工业界都可以轻松访问相关平台,并可以在合理的时间内训练中等和较大规模的CNN。使用基于输入展开以将其投影为矩阵乘法(Unfold+Parallel-GEMM)的算法的CAFFE、Theano、Torch7、Chainer、CNTK和TensorFlow等最先进的CNN基础设施已可以在高性能计算机上进行部署和应用。

增强现实技术AR(AugmentedReality),将真实世界信息模拟至虚拟世界,让人随时产生真实感受。通过高性能计算机高效地实现算法,可以数字虚拟孕育“互联网+”新业态,开发虚拟试衣、模拟试驾等应用项目。

高性能计算篇7

2005年12月,浪潮高性能计算创新奖励基金管理委员会在京正式征集成果,对获奖项目、获奖机构或人员颁发奖励证书和奖金,同时2006年“浪潮高性能计算创新奖励基金”成果征集公告。

据IDC统计,中国的高性能计算市场年增长率达到20%~30%。近年来,高性能服务器的市场随着需求而迅猛增长:2003年,中国服务器市场上高性能服务器的销售量已经达到2.325万台;2004年高性能服务器的市场销售量有增无减,销售额却占据了整个服务器市场销售额的50%以上。而一直以来,这一市场基本上被国际厂商所垄断。

国产服务器厂商浪潮认为,中国的政府、服务器厂商以及相关的科研院所必须承担起高性能自主化和产业化的重任。浪潮服务器技术总监胡雷钧说,开放架构在高性能服务器领域的应用,使得国内厂商拥有与国外厂商同等的技术“起跑线”,将会为中国本土高性能服务器产业的兴起提供重要的发展契机。

据了解,“浪潮高性能计算创新奖励基金”,是国家“863计划”计算机软硬件技术主题专家组与浪潮集团联合设立的一项长期的社会奖励基金。该奖励基金主要面向国内高性能计算机和商用高性能服务器系统的研究与开发领域,旨在鼓励国内在高性能领域的科技创新和技术成果转化,推动国内高性能计算领域的研究、开发和产业化。胡雷钧说,这是浪潮回报社会的一种方式。

胡雷钧介绍,高性能计算从市场应用角度大致分为两个部分:高性能科学计算(HPC)和高性能商用计算(HPS)。前者对服务器的计算性能提出了很高要求,主要应用在科学研究、地质勘探等领域; 后者则要求服务器具有强大的事务处理能力,在金融、证券、电力、税务等行业有着广泛的应用。高性能商用计算占到整个高性能计算市场份额的95%。

胡雷钧认为,国产高性能要实现产业化,需要着眼于占市场份额绝大部分的高性能商用计算市场,发展具有强大事务处理能力的高性能系统。这其中,实现应用的突破和创新才是创新的关键,高性能产业的发展重点应该是商用高端应用,围绕商用高端应用,重点发展高性能体系结构、操作系统与应用软件的应用价值。

我国高性能产业经过多年的发展,已经取得了长足的进步。据不完全统计,863项目在高性能计算领域已经鉴定的成果近400项,这些成果中已应用的成果有230多项,已形成产品并取得明显效益的有80多项。

但是,胡雷钧介绍,与国际先进水平相比较,我国高性能产业还存在较大差距,无论技术、应用,还是发展模式上都有待进一步提升。

高性能计算篇8

关键词 高性能计算机 管理软件 接口

中图分类号:TP311 文献标识码:A

1基本原理

1.1主要管理功能

高性能的计算机的管理软件,主要是使用IPMI协议,通过对网络的启动以及结合BMC卡来达到对计算机的管理的目的。同时还可以通过Internet网来进行远程的关机,远程的对计算机进行安装系统、检测等操作,这些都是通过Java程序执行存放在指定位置的;linux脚本来实现的。

1.2工作原理

PXE是基于TCP/IP、DHCP、TFTP等Internet协议之上的一种扩展的网络协议,它能够提供网络启动的功能、协议又分为客户端(client)和服务端(server)两端,PXE client存储于网卡的ROM之中,在计算机引导的时候,BIOS能够把PXE client调入到内存中,然后对其进行执行,并且能够显示出命令菜单的操作,经过用户的选择之后,PXE client将在远端的操作系统能够通过网络下载到本地上,并且在本地上运行。

PXE能够通过网络传输来保证其最后橙红的运行,在计算机启动的时候,DHCP server能够给PXE client动态的分配一个IP地址,为了实现这个目的,在对DHCP server进行配置的时候应该增加对应的PXE特有的配置。由于在PXE client所在的那个ROM内部,已经存在和TFTP client,因此PXE client可以使用TFTP client,通过使用TFTP协议来在TFTP server上对其需要的文件进行下载。

在上述的条件下,PXE协议就能够正常的运行了。在这个过程中,把PXE client是需要安装Linux的计算机,TFTP server以及DHCP server是运行在不同的另一个Linux server之上的。并且,配置文件、,Bootstrap 文件、Linux内核以及Linux根目录等都是放置在Linux server 上面的TFTP服务器的根目录之下的。

需要值得注意的是,在PXE Client 正常的工作的过程中,还需要 3 个二进制文件:即

Bootstrap、Linux 内核以及 Linux 根文件系统这三种文件。其中,Bootstrap 文件是可执行的程序,它能够向用户提供一个比较简单的控制界面,并且可以通过用户自主的选择,来进行相匹配的 Linux 内核以及 Linux 根文件系统的下载。

2实现方案

2.1涉及基本内容

目前来看,对于高性能计算机的管理软件使用的是基于Java语言的管理软件,它能够在集机群中使用上面介绍的各种技术来完成需要完成的各项功能,并且与此同时,各个功能都是封装在shell脚本之中的,并且还可以通过使用跨平台的编程的 Java 语言中的进程管理来对shell脚本文件进行调用。在计算机的管理软件的前台,会使用JSP来对Java进行调用。

其中,shell脚本文件的调用过程中,会涉及到网络启动、本地启动和网络安装服务这三种十分重要的技术,它们都可以在Linux的操作系统的环境下把调用的服务写成脚本文件的形式来进行执行,在这样的条件下能够使得对前台命令的调用变得更加的方便。

Java是一种跨平台的语言,因此可以使用这种语言作为编程的基本语言来解决这个系统中对于未来的跨平台的一种管理的设想。然而,如果采用这种方式则会涉及到一个Java 与 Shell 脚本的调用接口问题,但是Java 中的进程管理已经提供了能够对 Shell 脚本进行调用的能力,因此则不存在相关的问题。其中,还会涉及到Java 提供的两个类:即 Runtime 和Process。

3 结论

目前,随着高性能的计算机的逐渐增多,对于高性能计算机的管理软件的研究也逐渐的引起了人们的重视。对于高性能的计算机的管理软件的研究方案,大多数都是在Java程序的基础上进行设计的一种管理软件,本文主要对其基本的原理进行了研究,主要包括涉及到的基本知识、以及其内部的软件构成、软件的结构等进行了介绍。该管理软件的工作原理比较简单,并且解决了对高性能计算机进行远程的管理存在的难点。希望通过本文的介绍,能够起到一定的参考作用。

参考文献

[1] 赖万东,钟理.浅析应用计算机软件辅助化工原理课程设计教学[J].化工高等教育,2012(01):63-65+70.

[2] 陈奇,朱家诚,公彦军.将计算机软件引入机械原理教学的探索与研究[J].合肥工业大学学报(社会科学版),2011(01):145-148.

[3] 向健极.计算机软件开发的基础架构原理分析[J].武汉冶金管理干部学院学报,2014(02):70-72.

高性能计算篇9

从科研向商用普及

相较以往,此次公布的榜单似乎动静更大些。这半年来,计算能力再上了一个数量级,考量依据首次引入能效数据、四核快速成为绝对主流,集群、Infiniband等技术主题词的优势也进一步扩大,英特尔更是以其IA架构(至强与安腾)占据75%的份额理所当然地拔得头筹。众多表象背后,我们试图聚焦于平台及生态系统层面,榜单背后还有哪些值得我们去关注?

高性能市场是典型的金字塔结构,最下端的基石部分是庞大的工作组级,系统一般为6~64个节点,中间部分就是所谓的行业大单,一般有256~512个节点,甚至更大。顶部技术最尖端,也最吸引眼球,它一定是大规模并行架构方面的创新者和推动者,但份额极小。

英特尔服务器产品经理顾凡表示,高性能计算市场的热点集中在两端,一个是顶端的技术突破,拥有更大的计算能力去满足尖端领域的性能需求;另一个是底端的应用普及,它的关键在于提供商要能把突破性技术以更低的成本向下灌输。金字塔的中间部分是最为成熟的,标准化的集群架构非常普及且标准化,未来只是应用刀片解决方案之类的提高能效的问题。

从对上榜系统用户的统计上看,HPC从科研走向商用化的趋势非常明显,关注点也由过去的追求性能到解决问题的高生产力。以中国为例,我国内地上榜的12套系统中有6套用于石油行业的勘探作业。另6套高性能计算系统分别为电信、气象、地理和物流等行业用户采用。相比全球发展来看,中国目前仍有多个行业尚未开启其高性能进程,如金融行业,华尔街在其风险模型的预测方面应用高性能计算,在做投资产品组合时快速响应,降低风险,抢占先机;再比如生命科学领域,高性能计算也在高速成长。这些都是中国亟待开垦的高性能计算沃土。

软硬件的协同力量

此次TOP500上榜系统的总体计算能力获得了空前提升,本次榜单中排名最后的系统性能在上一次榜单公布中还可以名列第200名。这样的性能提升与采用多核处理器密不可分。

在系统采用的处理器中,刚7个月的英特尔至强5400是最耀眼的明星,它同时也推动了四核成为HPC的绝对主流。至强5400被161台系统采用,占总数的32.20%,同时,在首次引入的能效考量体系中,也以最高为265Mflop/s/W的表现位居x86架构系统的首位。这样的表现主要归功于45nm制造工艺给其绝对性能和能效带来的提升。顾凡表示,待Nehalem微架构推出,内存带宽等方面的改善将使基于该架构处理器的系统获得更大的性能提升,能效也将进一步提高。

有了先进的处理器,性能却未必一定会提升很高,因为软件上还存在着巨大的调优空间。英特尔在HPC生态系统中,就从事着这样的软件支持工作。其实,软件与硬件可谓英特尔的左右手,它在软件方面有大量调试工具,针对高性能计算有专门的软件包,如编译器、数学函数库等工具,这些是帮用户把高性能计算应用好的核心。英特尔所做的工作就是针对用户的应用软件做优化,解决并行瓶颈,以更好地应用线程并行,这样才能把整个集群的能力激发出来,甚至会提高数倍的整体性能。

记者了解到,英特尔设在美国的高性能计算中心由软件与解决方案事业部管理,其职责是帮助HPC解决方案供应商、甚至最终用户做分析与调优,他们最早接触英特尔的高性能产品,有足够的技术实力在新一代架构上进行调优。

蓄势千万亿数量级

IBM基于CELL和皓龙处理器的Roadrunner此次位列榜首,并将计算数量级突破了千万亿次(1 Petaflops)。同样是冲击最高端,英特尔的产品规划与技术准备的情况如何?混合架构是否是冲击千万亿次计算的必经之路?

英特尔高性能计算方案架构师张晓军与记者进行了交流。他认为,在最高端领域,英特尔正稳步走在正确轨道上。“英特尔在高性能计算产品线上的布局非常完整,既有服务于集群架构的至强,也有服务于大内存容量需求的安腾,未来高端的还有Many Core(众核)架构去服务HPC的金字塔尖部分。”他列举了两个重要事件佐证观点,一是4月28日,Cray宣布联合英特尔共同开发下一代高性能计算机;二是NASA(美国航空航天管理局)与英特尔、SGI宣布将共同为NASA在2009年前开发出峰值性能为千万亿次的计算系统,2012年将这一数字提高到万万亿次,服务于NASA航空航天的研究包括气象预测的研究。“这些重量级的合作伙伴为什么会选择与英特尔长期合作?这表明他们看到并认可英特尔在HPC领域未来长远的发展蓝图。” 张晓军表示。

高性能计算篇10

近日, VMware公司与曙光公司达成一项OEM协议,曙光公司将销售、分销及支持基于曙光服务器系统的VMware Infrastructure 3。这是VMware公司继联想、浪潮之后,与中国服务器企业再次合作推广虚拟化技术与方案。在会上,曙光公司副总裁聂华和VMware 公司大中华区总裁宋家瑜豪不掩饰双方合作的真正意图,那就是在高性能计算机虚拟化方面能有所作为。“这也是VMware 公司选择与曙光合作的一个重要原因,也是与联想合作最大的不同。”宋家瑜对记者说。

高性能计算机应用的目标已经越来越清晰,那就是用户应用简单、方便,性能得到充分利用,居高不下的能耗能得到降低等等。而虚拟化技术目前所能解决的问题是,通过整合服务器,企业的计算能力可迅速汇集并按需提供服务,整个数据中心的灵活性会随之得到增强,简化了管理,降低了功耗,改进了灾难恢复,降低了成本。两者的目标极其相似,因而具有巨大的应用前景。聂华认为,目前高性能计算机用户除了特别单一的应用以外,对性能利用和降低能耗等优化的需求很强烈,曙光在这方的探索很早就已经开始。而借助VMware 公司的力量,会加快高性能计算机应用虚拟化技术的进度。

不过双方目前合作的重点仍然是工业标准服务器和数据中心方面虚拟化技术的应用。双方合作的第一步是在曙光的服务器上部署VMware的虚拟化产品,包括目前应用最为广泛的平台,也会包括即将的最新产品。聂华认为,部署VMware Infrastructure,曙光产品的可用性、安全性和扩展性得以提高。客户现在就能购买捆绑了嵌入式VMware Infrastructure的曙光产品。第二步是提高用户应用虚拟化技术的水平,为用户提供增值服务。第三步就是在高性能计算机虚拟化上有所突破。在发展高性能计算机方面,一个非常重要的问题是降低用户的应用成本,提高应用的效率。“在通用高性能计算机上,引入虚拟化技术迫在眉睫!” 聂华认为,“这也是我们选择与虚拟化技术领头羊VMware合作的主要原因。”如果你认为曙光与VMware仅仅签署了一项OEM合作协议,那么你只看到冰山的一角。双方签署的是战略合作协议,其中的内容耐人寻味。