高性能计算机与网格的研究开发态势
徐志伟
文档状态:本报告系列是我所“曙光高性能计算机”和“织女星网格”两个品牌的相关研究开发动态与趋势的整合与分析,也包括与“龙芯”品牌、存储服务器相关的内容。另外,本报告系列关注计算机领域的突破性创新,对全所的工作都有参考作用。本报告主要关注国际研究开发趋势,但也包括市场应用趋势、对我所的影响。
本报告不定期推出,大约一年一次。本文是本系列第二个报告。第一个报告是《操作系统、网格、机群研究开发的若干动向》(2002年8月5日)。更前的报告见《国外高端计算机的研究开发趋势与对策》(2000年2月10日)。与织女星网格相关的报告见《织女星网格:关键问题与设计原理》(2002年11月22日)。本报告部分内容取自《电脑启示录》下篇《启示录•电脑的未来》草稿。
摘要:本文基于2002年8月至2003年12月,通过参加GGF-6、SC02、HPC Asia 2002、GCC2002、GGF-8、HPDC-13、SC03、Cluster 2003、GCC 2003以及与IBM 、HP、Sun、Intel、Platform和国际学术界的交流,对国内外相关市场(包括与计算所伙伴曙光、联想、神州数码、中科力腾、中国联通、铁路、国信办等)调研和技术趋势分析,以及我们自己的研究工作,总结了计算机体系结构、高性能计算与网格的若干研究开发态势。
本文提出了下述几点看法和一些思想:(1)计算机领域正在面临着由网络计算(亦称网格)带来的一次突破性创新。(2)高性能计算机并不等同于网格,两者在今后15年都很重要,而且创新机会很多。随着电脑技术的广泛普及,社会对高性能计算机将成为全球大网格的需求会日益增长。高性能计算机将成为全球大网格的主机;而网络计算与服务将成为高性能计算机的主要工作负载。(3)中国市场和用户正在从跟踪方式向“需求驱动的跨越”方式转移,跟踪式研究不仅必然会导致学术持续落后,而且有落后于市场的危险。(4)这次突破性创新还有很多机会,今后2-4年是我们计算所在计算机系统和软件领域做出经得起历史考验的科研成果的前所未有的时机。(5)我们可以通过“人机社会”凝练科学问题和研究目标,以曙光天剑网格计算机、织女星网格、IPv6网格、AVS网格、Vega-PG网格终端等系统为载体,在2004-2006年内开发出网格资源空间、网程、网格社区、GSML软件包等核心技术,从而提供高效的关键技术和应用平台。
计算机领域面临大转折
尽管从市场和媒体角度看,电脑产业变幻无常,但事实上,电脑产业发展具有自身的规律。有些规律是技术领域的普遍规律,有些是电脑学科特有的;有些规律随时间而变化,有些则比较持久;有些早已存在,有些则是近10年来逐渐浮现出来。本文讨论适合于今后15年的六个基本规律,即摩尔定律、周期规律、网络效应、小世界现象(网络论)、病毒市场现象,因特网路线,以及随之而来的几个对2005-2020年电脑产业发展趋势的判断,总结了四个趋势和它们构成的转折。本节摘自《电脑启示录》下篇《启示录•电脑的未来》草稿。
计算机产业发展的六个规律
摩尔定律
电脑发展史上有一条规律40年一直未变,而且业界普遍认为它会持续到2020年。这个规律就是摩尔定律。它说,一块半导体集成电路芯片上的晶体管数每隔2年就要翻一番,从而使得芯片的性能(每秒钟执行的指令数)也每隔2年就翻一番。
摩尔定律是一种经验观察,并不是牛顿定律一样的物理规律。但它反映了市场需求,同时也是芯片厂商的响应。它有一种自我加强性:摩尔定律意味着不懈的竞争,芯片厂商为了在市场上站住脚,必须不断改进技术,这又反过来加强了摩尔定律。最新统计研究表明,半导体集成电路芯片上的晶体管数翻一番所花的时间并不是刚好两年,而是有一些波动。在1965-1975年期间平均是17个月;在1975-1985年期间是22个月,在1985-1995年期间延长到了平均32个月,在1995-2003年期间又缩短到22-24个月。18个月是市场媒体的夸张。
周期规律与S曲线
任何技术的发展都遵循周期规律,亦称S曲线。图1是我们今天看得到的计算机技术的曲线,该图是作者根据IBM副总裁乌拉道斯基-伯格博士的材料修改得来的。
图2. 计算机技术的S曲线
周期规律包含如下要点:
- 任何技术都有一定的生命期。
- 生命期可以分成若干阶段(图1显示了前四个阶段,后面还有成熟、衰亡)。
- 每个阶段都需要技术创新,但目的和重点有所不同。
- 每个阶段是由一些更小的S曲线组合而成。
- 像“计算机科学与技术”这样的一级学科,宏观上讲也是一种技术,也遵循周期规律。不过,它还包含很多子技术、子学科。每一项子技术也遵循周期规律,也有自己的S曲线。计算机学科的S曲线是由它的子技术的S曲线组合而成的。
网络效应
网络效应(network effect)在经济学界早已熟知了,那就是一种商品的价值随着其消费者的增多而提高。电话就是一个例子。如果全世界只有几百个电话用户,则电话的价值是不大的。公众之所以认识到了电话的价值,电话之所以能够广泛普及,来源于电话用户达到了一定的临界量。用户越多,则电话的价值就越大。
对电脑而言,我们还有更精确的规律(见《电脑启示录》中篇《硅谷的秘密》)。比如,麦特考夫定律说:“电脑网络的价值(value, utility)正比于用户数的平方。”布朗定律说:“电脑网络的价值正比于网络中社区个数的指数。”也就是说,网络的价值 ∝ 2c ,c是社区个数。有的民口人士将价值称为生产力,而一些军口人士(如美军GIG)将价值称为战斗力。
这两条定律有三个关键点:第一,网络要普及,不仅要有物理层面的连通,而且必须是用户看到的,能够方便地使用起来的连通。只是把电脑用网线连起来是不够的,必须在应用层面连通起来,让用户享受到高质量的服务。
第二,网络的价值随着用户数增多而超线性的增长。因此,最优化的方法是将全世界的用户(和系统、应用)都连在一个大网里,彻底消除信息孤岛。同时,在这个连通所有用户的大网里提供尽量多的社区(以及社区带来的高质量服务),供用户选择。
第三,信息的价值正比于共享程度。网络效应的根本原因是它鼓励信息共享。因此,今后的价值优化发展趋势是,在安全和合法的范围内,最大程度地鼓励信息共享。
网络效应说明了,必须把全球的电脑资源连通为一体,最大程度地共享,方便地提供用户使用,才能最优地增大电脑网络的价值,才能促进电脑的广泛普及。
小世界现象(网络论)
近15年来,科学家们已经发现,电脑网络是有其内部规律的,这些规律也适合于电脑的用户群。而且,这些规律并不局限于电脑网络,在生物学、经济学、社会学、生态学等等学科中普遍存在,很可能是一种普遍的规律。因此,这些研究产生的论文大部分发表在《科学》、《自然》、《物理评论通讯》等自然科学的学术期刊上。这些规律互相关联,还没有统一的名称。有人称其为网络论(net theory),也有人用其中的一个主要结果作为代表,称为“小世界现象”。文献[2]对网络论作了精彩而通俗的介绍。这些科学发现有下列要点:
- 小世界现象:网络的分离度(degree of separation)通常是很小的
- 网络具有结构:幂数率(power law)与中心结点(hub)、蝴蝶结图
- 网络的结构和系统性质来自于自组织、成长与竞争
作者认为,网络论正在成长为一门继系统论、信息论和控制论之后的与计算机相关的重要理论。它的成果对电脑的广泛普及、对计算机学科的未来发展可能会产生直接影响。
比如,网络的这些符合幂数律的结构特征对网络的安全可靠性有直接影响。抛开很多细节不谈,网络论研究已初步表明:网络既是健壮的(robust)又是脆弱的(vulnerable)。说网络是健壮的,是因为满足幂数律的网络具有抵御随机、自然故障的能力。比如,全球因特网中,每个时刻都有几百个路由器出故障,但因特网服务总体上却没有受影响。说网络是脆弱的,是因为它不能应付恶意的攻击和级连故障(cascading failure)。一个黑客、一个病毒如果有选择地恶意攻击因特网的中心结点,可以导致整个网络崩溃。这个本质性的结果告诉我们,如何应对网络的脆弱性是今后20年的一个研究热点。
病毒性市场现象
在网络计算时代,在电脑的广泛普及阶段,什么样的产品和服务最能够快速、广泛地流行呢?
答案很清楚,这些产品和服务一定要有病毒的特征。事实上,电脑病毒的流行是如此之快而广泛,我们每年都要花费大量的财力和精力去对付它。那么,我们能不能把我们的有用的产品和服务做得像病毒那些易于流行呢?这需要我们了解病毒的市场特征。
为什么电脑病毒易于流行呢?是不是功能和性能呢?显然不是。没有用户会去有意地“使用”病毒的功能。当然,有用的产品和服务必须为用户提供功能和价值,但功能和价值并不是病毒流行的原因。专家们总结出了病毒的六个市场特征:
- 连通性。病毒必须要通过一个连通的网络才能流行。在一个充满孤岛的支离破碎的网络中,病毒是很难流行的。
- 幂数律。病毒性市场现象在经济学中早已有所涉及。但这些传统研究表明,病毒必须积累到一定的临界数量或临界阈值(critical threshold)才能流行。最新研究则表明,当病毒作用于一个满足幂数律的网络时,这个临界阈值几乎不存在。病毒用不着在网络中积累到一定临界数量,而是可以通过中心结点迅速传播。
- 低成本。对用户还言,病毒的成本极低。事实上,没有人会出钱去买一个病毒来使用,病毒的购买价格是零。
- 好使用。病毒的“使用”是非常方便的。用户用不着花费任何金钱和精力去获取、安装、使用和维护病毒,也用不着去受任何培训、去看使用手册。一切都是病毒自己自动完成的,用户用不着任何投资,也没有金钱和精力的开销。这样,不仅病毒的购买价格是零,它的总拥有成本(Total Cost of Ownership, TCO)也是零。
- 易传播。病毒的传播也是很容易的,用户没有任何开销。用户在自己的电脑上每“使用”一次病毒,该病毒就会自动地传播出去,使另外一个或多个用户成为该病毒的客户。随着每次“使用”,病毒的用户群日益扩大,病毒迅速流行。
- 强黏糊(sticky)。病毒的黏糊性很强,如果用户不花精力刻意去搞掉它,病毒会一直在系统中持续地发挥作用。
开放规律与因特网路线
电脑发展60年的历史表明,开放的技术较易流行。这就是开放规律。电脑技术的发展有多种多样的方式,如政府资助的纯研究、应用研究和原型开发,也有公司资助的研究和产品开发。但是,有一种方式的重要性将会上升,而这种方式在中国还很少实践,也不太为人所知,甚至不为人理解。这种方式就是因特网路线。
因特网路线实际上在因特网诞生之前就被人们实践着,但在因特网的发展中体现得最充分。在电脑历史上,人们采用因特网路线做出了很多重要的创新,其中著名的技术包括因特网和GNU/Linux操作系统。近二十年来,采用或部分采用因特网路线进行电脑创新的人越来越多,它正在成为网络计算时代最重要的创新技术路线。因特网路线有五个要点,即人民性、领导性,开放标准、粗略共识、运行代码。详见《电脑启示录》下篇。
计算机产业发展的四个趋势
本节简单说明四个趋势(图2)。《电脑启示录》下篇有更详细的阐述。
1999年11月,美国政府的国家情报委员会委托著名的思想库兰德公司(RAND)组织一次未来研究,探讨2020年全球信息技术的景象。兰德公司组织了全美数十名学术界、企业界、政府界和非政府组织的专家进行了近两年的研究,得出了具有高度共识的结论,认为下列五项技术将成为今后20年的突破性创新技术,并对信息技术市场产生广泛影响:
- 光通信(Optical Communication)。全部采用光学原理的通信技术将能提高通信速度数千倍,达到每秒数万亿比特。这将大大改变计算机体系结构、操作系统、网络协议和应用软件。
- 广泛互联(Universal Connectivity)。通过各种无线和有线的互联技术,人们将随时随地都可以联在网上。而这将产生各种各样的新产品和服务,改变政府、企业、金融业的运作模式。
- 普遍计算(Ubiqutous Computing)。计算机将无所不在。各种嵌入式计算机将存在于各种设备、工具和设施当中(衣服、家用电器、住宅、办公楼、汽车、公路等等),为人们的衣食住行和工作提供智能监控与服务。
- 传感器(Pervasive Sensors)。传感器将无所不在。通过各种各样的廉价的传感器和短距离无线通信技术,人们的物理世界将与虚拟世界耦合于一体。
- 全球信息功用设施(Global Information Utilities)。人们将实现1960年代提出的信息网格梦想,像使用电力、电话一样方便地获取信息服务。
兰德公司的这项研究还有一个很有趣的特征,就是专家们花了很大功夫找出预测未来的最好方法。他们总结了历史上人们用于预测未来的三类方法。(1)一厢情愿法(wishful thinking):表达人对未来的愿望和担心,但较少客观的依据。这种方法用得最多,但准确性较差。(2)趋势外推法(trends extrapolation):即根据已知的现实情况,总结出未来趋势。这种方法对10-15年内的情况比较准确,但不适合更长时间的预测,因为它难以考虑到人类社会对技术发展的互动影响。(3)活动空地法(reading the clearing):从社会、文化、历史、技术等环境因素,找出人类活动的“空地”。只有空地内的发展才是可能的。这个方法之所以被称为“空地法”,是因为它借用了森林中的空地的比喻,空地之内是人们创新活动的空间,空地之外的环境不允许人们活动。这种
方法对15-20年的预测比较准确。
如果我们利用趋势外推法和活动空地法,以电脑发展的六条规律为线索,我们可以预测今后10-15年电脑产业可能的四个主要趋势,即摩尔定律趋势、广泛普及趋势、网络计算趋势、因特网路线趋势。这些预测并不只是作者个人的判断,而是在一定程度上总结了电脑产业界的共识。这些判断可以用图2表示。
摩尔定律与革命性体系结构概念、牧村浪潮
摩尔定律在2020年以前会继续成立。因此,在硬件电路层面不会发生大的转折,半导体集成电路仍然保持主流地位。但是,如何利用摩尔定律来有效地构造部件和系统却不是确定的,硬件芯片和系统层面可能发生大的创新。
摩尔定律的一个有效应用就是SIA Roadmap。下表显示了SIA Roadmap(2002)对2002年、2005年、2016年的部分预测数据。SIA的其它研究表明,摩尔定律到2020年都会成立,下表的趋势可以延续到2020年。
高档处理器芯片的发展趋势(数据来源于SIA)
技术指标参数 |
2002年 |
2005年 |
2016年 |
工艺(微米) |
0.13 |
0.08 |
0.022 |
主频(GHz) |
2.3 |
5.2 |
28.8 |
管脚数(根) |
1320 |
1760 |
4702 |
晶体管数(亿个) |
3.48 |
6.97 |
88.48 |
电压(伏) |
1.0 |
0.9 |
0.4 |
最大允许功耗(瓦) |
140 |
170 |
288 |
成本(美分/100万晶体管) |
69 |
24 |
0.54 |
成本(美元/芯片) |
240 |
163 |
48 |
高档内存芯片(DRAM)的发展趋势(数据来源于SIA)
|
2002年 |
2005年 |
2016年 |
工艺(微米) |
0.115 |
0.08 |
0.022 |
容量(Gbit) |
2.15 |
8.59 |
68.72 |
成本(美分/Mbit) |
5.4 |
1.9 |
0.042 |
成本(美元/芯片) |
116 |
163 |
29 |
2002年,一枚高档CPU芯片采用0.13微米工艺,成本为240美元,主频为2.3 GHz,内含3.48亿个晶体管,每100万个晶体管的成本为69美分。到了2016年,一枚高档CPU芯片将采用0.022微米(22纳米)工艺,主频增长到28.8 GHz,内含88亿个晶体管,成本却降到48美元,即每100万个晶体管的成本为0.54美分。
计算机硬件部件可分为处理(含控制)、内部存贮、外部存贮、互连和外部设备。根据上面的讨论,我们可以给出下列判断:
- 在2005-2020年时段,摩尔定律继续成立。
- 处理部件的主流技术仍将是半导体集成电路。
- 内部存贮的主流技术仍将是半导体集成电路。
- 外部存贮的主流技术仍将是磁性材料技术以及半导体集成电路;纳米材料存贮技术有可能成功,但不确定。
- 互连的主流技术将是(传统)电路以及光互连技术。
总之,在今后20年,半导体集成电路仍将是计算机的主流技术,其它新兴的技术(如量子计算、分子计算、生物计算)还难以取代它。
由于摩尔定律继续成立,我们对今天已有的硬件可以做出一些颇有把握的推断。比如,今天一台桌面微机的全部电路今后可以缩小到手掌中(如手机、PDA),而今天的手持设备的全部电路可以缩小到指甲大小、甚至米粒大小。这后一种硬件已经有很多产品原型了,称为“智能微尘”(smart dust或motes)。
但是,如何利用摩尔定律带来的硬件进步?如何将它有效地映射到人们的需求和市场产品与服务中?人们是应该将这些电路的进步应用于计算,还是应该用于存贮、用于通信?或许我们应该采用当年施乐公司PARC研究所的科学家发明Alto微机时的思路,将90%的电路资源用于屏幕显示(即交互)?是将这些进步应用于提高性能和功能,还是用于降低成本或者提高好用性?业界对这些问题有很多回答,而且今后的发展还有很大的不确定性。
美国国家科学基金会认为,高性能计算机正处于重要的转折期,因此在2001年开始启动一系列项目,鼓励“革命性体系结构概念”的研究,其中的一个重点就是如何用好摩尔定律带来的硬件进步,提高计算机的效率和生产力。更多细节见下文。
让我们不要考虑整个电脑系统,只集中于半导体数字电路芯片。在这个领域,针对如何有效地使用摩尔定律的问题,电脑界已经总结出了一个宏观规律,称为牧村浪潮(见图3)。这个经验观察规律是日立公司的首席技术专家牧村次夫于1987年第一次提出的,并于2001年加以修订,以覆盖2007-2017年的预测情况。经过了十余年的检验,人们发现这个经验观察比较精确。现在,牧村浪潮已经越来越受到人们的重视。
当牧村次夫在1987年第一次提出他的观察(后来人称牧村浪潮)时,他只考虑了1957到2007年的情况。牧村浪潮包含三个要点。第一,半导体芯片产业交替重复标准化和专用化的周期;第二,这些周期同时受技术和市场因素推动产生;第三,每个周期为时大约20年,标准化阶段和专用化阶段各为10年。
半导体芯片的牧村浪潮(Makimoto’s Waves)
牧村浪潮的成立是由市场和技术的原因造成的。在2003年,牧村次夫再次将这些原因归纳比喻为一种钟摆运动(见图4),阐述了芯片产业重复标准化和专用化周期的道理[7]。
牧村次夫认为,我们现在处于这样一个可重构阶段(field programmability,FPGA是一个例子):半导体产业界的技术(尤其是制造技术)是标准化主导(因为制造成本太高),但市场却是专用化主导。因此,标准可重构芯片正是解决标准化技术和专用化市场这一矛盾的最好途径。需要可重构的另一个原因是产品升级太快,一个芯片的使用周期从3-5年降到了1年(尽管使用总量可能不变)。可重构才能适应这样的变化(见图5)。牧村次夫预测,这将适应我们正在进入的,以微机为代表的第一次数字浪潮以后的第二次数字浪潮,它的特点将是数字化消费者电子和网络产品(见图6),其市场将超过第一次数字浪潮。
ASIC的成本优势正在消失。量越大,ASIC的总成本越低。但是,到2005年,300 MHz、30万门的芯片产品,如果量超过30万片,FPGA的总成本将低于ASIC芯片。
图5. 牧村浪潮的市场和技术原因:钟摆运动
“When large numbers of new technologies, such as devices, architectures, and software, appear, the semiconductor industry as a whole moves towards standardization. Then, aspects appear that function to suppress this motion, [such as] the need for product differentiation and added value, and the imbalance between supply and demand. In the other direction, progress in design automation and advances in technologies such as
标准可重构芯片之后是什么呢?牧村次夫预测是另一个专用化阶段。其技术特征是SoC/SiP,使用maskless technology(以降低mask的成本)和superconnector技术(以解决连线问题)。它的市场特征是充分利用网络化趋势的电子业务(e-business that takes full advantage of networks)。见图3。
图6. 芯片产品的生命周期大大缩短
图7. 牧村次夫预测的第二次数字浪潮
广泛普及趋势
电脑将进入广泛普及阶段。电脑的用户群将成倍扩张,电脑网络将像自来水、电力、电话一样成为社会大众工作和生活的必需品。
应用成为电脑学科主题。由于广泛普及,信息技术市场年产值将增长到20万亿美元,大部分将是应用。这就像当年电力技术的发展一样。今天,电力技术本身的市场仍在发展,2000年全球电力消费量增长4.24%。但是,电力技术应用的市场却大得多,产生了新的产业:电话叫通信产业,电台、电视叫传媒产业,电脑属于信息产业,炼钢电炉属于钢铁工业。
就像今天我们有这么多的“电X”一样,2020年的世界市场上将充满各种各样的“信息X”、“数字X”、“电子X”或“X信息”、“X数字”、“X电子”的产品和服务。他们还可能被赋予更“酷”的名字。
低成本、使用方便、易于传播将成为流行技术的主要特征。尽管高端技术仍然会不断发展,技术提供者将不再单纯以功能和性能作为产品和服务的主要竞争力。电脑界长期以来的这种以技术为中心的做法将逐渐让位于以人为中心、以用户为中心的模式。
网络计算趋势(网格化趋势)
如果我们从用户角度看计算机系统总体结构从1960年到2020年的演变,我们可以总结一条历史经验观察,姑且称之为三国定律:“天下大势:分久必合、合久必分”;每个分、合阶段大约主导15年(见图7)。我们已经经历了三种模式。大型机/终端是早期的主导模式,其主要优点是使用方便和易于管理,其主要缺点是开放性差、不易扩展、以及价格昂贵。为克服这些缺点,客户/服务器(client-server)模式应运而生。集中在大型主机(Mainframe)中的服务器功能被打散分布到多台独立的开放式服务器,通过网络与各类客户机(工作站、PC,网络终端,NC等)相联。服务器聚集(server consolidation)又被称为因特网数据中心(IDC)和服务器堆(server farm)模式。它用一套物理上集中式服务器同时提供多台独立服务器的功能,并将尽量多的功能从客户端移回集中式服务器端,以提高系统的可管理性。
网络计算将是今后15年的时代标志。我们目前正在进入一个新的“分”的阶段,即服务器聚集物理上分散到各地,但仍然保持虚拟的单一系统映像。这也可以看成是一种特殊的“合”,即多个IDC的资源被互连成为一个虚拟的网格计算机,各种客户端设备通过功用(utility)方式使用网格资源。在这个网络计算时代,孤立的计算机系统、软件和应用将被网络化的产品和服务取代。世界将被互连成为一个开放的、一体化的、资源共享的全球电脑网络,也称为全球大网格(Great Global Grid)。这是电脑广泛普及的必然要求。正如马颂德研究员所阐述的,一项技术往往要在网格化以后才能广泛普及。兰德公司的5项预测中,后4项(广泛互联、普遍计算、传感器、信息网格)都是网格化趋势的一个侧面。
电脑系统总体结构的三国规律(S: Server, C: Client,网格图片来自IBM)
网格化趋势将是计算机广泛普及的主要技术推动力。网格化的特征是网络化、服务化。它将使得网络效应逐步得到充分发挥,从而推动电脑的广泛普及。全球电脑网络将演变成为有结构的小世界。它通过自我组织、通过成长,演变成为一个符合幂数律的动态开放的人机社会。物理世界(physical world)、数字虚拟空间(cyberspace)、人类社会三个世界将通过接入设备(接口设备)和传感器连通成为一个三元世界,组成数字社会(见图8)。
图9. 物理世界、数字虚拟空间、人类社会通过接入设备和传感器连通组成的数字社会
电脑产业将从摩尔定律主导变为网络效应主导。今后20年,摩尔定律仍然将是电脑产业界的基本定律。但是,摩尔定律是电脑产业共同的定律,它的一个后果就是大路货化、同质竞争。每一个创新团队要想突破同质竞争、提高竞争力,必需深入思考如何有效地利用摩尔定律去最大程度地发挥网络效应。在今后10年之内,我们看得到两种趋势:
- 网络应用。网络服务将成为最重要的电脑应用。
- 计算机电子(computer electronics,即图6中的数字化消费者电子和网络产品)。图8中的多种接入设备(如数码相机)和传感器设备(如RFID设备)在很多时候将可能是离线方式工作,成为看起来是单独工作的计算机电子设备。
如果我们将时间尺度拉长到今后20年,随着无线通信技术的进展,计算机电子设备(第二次数字浪潮)的缺省方式将有可能变成在线方式,随时随地连通到信息网络的虚拟世界。
因特网路线趋势
人们将用什么样的技术路线来开发和使用广泛普及阶段的网格化技术呢?
因特网路线将成为主流技术路线。基于先进技术和同行共识的开放标准是主要的目标。人民更加主动地参与电脑网络的创新和应用;人民利益更加得到体现。
广大人民不仅是被动的用户和消费者,他们同时将成为信息技术和信息资源的生产者和开发者。信息技术厂家和运营商将难以垄断市场,控制人民的行为。
由于网格化趋势,以及由此产生的网络效应、小世界现象、病毒性市场现象,信息产业的技术门槛降低。个人、志愿者团体、小公司产生的先进技术比现在更有可能流行。一个优秀的、领导性的小团队也可能影响产业。
高性能计算机的研究开发态势
机群
过去十年来,(第二代)机群技术发展迅猛,现在已成为中高档高性能计算机市场的主流产品。机群系统的技术门槛不断降低,Linpack机群已成为大路货。但是,用户和科技人员已对现有的机群及其发展提出了两种质疑。这些质疑同时也指出了机群技术未来的创新机会,可能在今后几年内促生第三代机群。
机群已成为中高档高性能计算机主流产品
在过去十年中,高性能计算机发展最快的体系结构种类是SMP和机群。从今天的市场(包括技术计算市场和大得多的服务器市场)占有率看,低档高性能计算机的主流是SMP,而机群,尤其是SMP机群,已经成为中高档高性能计算机的主流。其他体系结构(PVP、PVP-NUMA、ccNUMA)的市场占有率要小的多,而且很难看出他们有加速发展的可能。
机群的应用水平也不断提高,不论是在技术计算(科学计算与工程模拟)领域、商务应用(事务处理与数据处理)领域、互联网主机应用领域,都是如此。
第二代机群市场发展迅速的主要原因有三个。第一,机群采用了开放的结构,技术门槛较易不断降低,较易普及。第二,机群比其他结构更容易利用摩尔定律,从而成本不断降低。第三,机群使用了比较稳定的编程模式(和使用模式),从而促使应用水平不断提高。
下面用一个高端用户的例子具体说明(见图9和图10)。素材来自与美国能源部劳伦斯利弗摩实验室(LLNL)的Mark Seager的交流,参见[9]。
图10. 美国能源部劳伦斯利弗摩实验室(LLNL)的高性能计算机发展史
LLNL是全球高性能计算机使用较好的一个应用大户。从1970年的IBM 704开始,持续使用高性能计算机已有33年的历史,经验比较丰富。美国能源部最近投入4亿美元,在LLNL建设“万亿级模拟设施”Terascale Simulation Facility(TSF),预计2005年完成。届时TSF的峰值计算能力将接近每秒500万亿次浮点运算(0.5 PetaFlop/s),比1980年代的CDC 7600增加了上百万倍,或6个数量级。从图9的峰值速度曲线可以看出,机群的引入对保证高性能计算能力按照摩尔定律增长起到了关键作用。如果LLNL沿用过去的CDC机和Cray向量机的路线,计算能力的增长要缓慢的多。
机群的引入也使得升级换代更加频繁。CDC 7600机使用时间最长,达18年。Cray向量机使用时间为7-10年。Mark Seager告诉作者,机群系统通常在4-5年退役。这一方面是为了更好地利用摩尔定律带来的系统进步,另一方面是因为机群使用了比较稳定的编程模式(如MPI+OpenMP),使得升级换代不需要大量的程序移植工作,从而能够控制总拥有成本,使得总拥有性能价格比更高(参见图10)。
由于机群系统在5年内退役,它必须提供更高的生产性应用的使用效率和更高的价值,才能得到好的ROI,才能物有所值。稳定的编程模式、通过共享资源提高利用率等具有很大的意义。LLNL的经验显示,必须尽早使系统投入生产型应用(time to production)。为此,LLNL采用了一种“三个曲线”的方法(见图10),即同时规划和提供三类系统(生产、准生产、研究),形成三个互补的增长曲线。2000-2005年期间,LLNL的生产类系统主要是IBM等厂商的RISC芯片Unix机群,用于日常生产使用。准生产类系统主要是IA32/IA64/AMD芯片Linux机群,为下一代生产使用作准备。研究类系统目前考虑的是IBM Blue Gene/L以及以后的基于Cell处理器芯片的机群系统,其目的是为下一代生产使用和更长远的千万亿次级系统作准备。
图11. LLNL的高性能计算机三个曲线(生产、准生产、研究)
Linpack机群已成为大路货(Commodity)
Linpack机群,即通过组装商品化部件(市场上很容易买得到或开放源码的部件),以取得好的Linpack测试值(Top500排名)为目标的机群,已经成为像微机一样的大路货。
美国圣地亚哥超级计算中心的Philip Papadopoulos(他是IEEE Cluster 2004的程序委员会主席)总结了这个现状:“It is straightforward and fast to get a working and stable cluster”。他在SC2003现场验证了这个论断:他带领一个20人的团队,使用市场上很容易买得到或开放源码的部件,在2小时内组装了一台数百个CPU的机群并投入运行科学计算应用。
2003年,美国Virginia Tech大学花了520万美元和三个月左右的时间,利用现成部件,自行构建了一台2200个CPU的机群,峰值速度为17 Tflop/s,Linpack测试值为10 Tflop/s,在2003年11月的Top500排名第三,仅次于地球模拟器(耗资3亿多美元)和ASCI-Q(耗资约1亿美元)。这个项目的主要劳动力是学生志愿者。事实上,这台系统比一般的Linpack机群要麻烦一些,因为它使用Apple公司的G5节点和Mac OS。
Linpack机群已成为大路货的最明显的标志是,微机厂商大头,如Apple、微软和Dell公司,在2003年大举进入机群市场。他们在2003年第一次参展ACM/IEEE Supercomputing国际会议,提供了大型展位。
Dell公司人员告诉作者,技术计算机群与微机没有两样,都是大路货。Dell公司已经开始把Dell模式用于机群,像生产、销售Dell微机那样生产、销售机群。Dell公司已经可以提供机群的1小时报价、1周供货和1天安装(1 hour quote, 1 week delivery, 1 day install)。目前,Dell公司通过Dell模式每周销售20台机群。在2003年,Dell公司销售的最大机群是一个不公开的系统,含6000个处理器;公开的最大Dell机群是一个3000个处理器的系统。Dell的第三大机群在2003年11月的Top500排名第四,是一个2500个处理器、峰值速度为15 Tflop/s的系统。
Dell的第三大机群在2003年11月的Top500排名第四充分说明了Linpack机群已成为大路货。竞争的焦点已不是技术研发,而是生产、销售、管理。这方面,Dell模式(即commodization,或大路货化,Dell自己用的另一个名词是Dell Direct Model)目前是市场上最先进的模式。Dell模式是当年Compaq模式的进一步创新,其优点是成本很低,从而在保证具有市场竞争力的低价位的同时,仍有可观的利润。
Linpack机群成为大路货,总的来讲是好事。这说明高性能计算技术的门槛降低,已进入了一个市场普及的新阶段;说明市场对机群的需求在快速增长,并且已达到了一定的临界数量;说明机群技术已成为高性能计算机的主流。这也证明863计划在1995年支持曙光2000机群超级服务器思路的选择是对的。那个时候,第二代机群刚刚出现,很不成熟,远不能肯定它能像今天这样成功。863计划在当初做出这个选择要冒风险,是有预见性的。其难度相当于今天(2004年)我们要预测2010-2012年的高性能计算机主流市场产品。
但是,这也提出了一些新问题和挑战。
Linpack机群受到两种质疑
近几年来,Linpack机群受到了科技界和市场用户的两种质疑。这些质疑的声音在近两年已经很大了。美国政府、学术界和一些厂家已经采取措施应对这些问题。
质疑一:是否应该把Linpack指标作为高性能计算机,特别是机群的设计目标?
用Linpack指标作为高性能计算机的性能评价指标有很多优点。比如,Linpack是一个密集矩阵线性方程组应用,而不是简单的玩具程序。同时,它又具有程序小、较易操作等基准程序优点。因此,Linpack benchmark和Top500近20年来一直被使用,今后还会被使用。
Linpack流行的另一个原因是目前还没有比它更好的简单benchmark。
但是,Linpack指标只反映了高性能计算机的一个侧面,只能用作一个参考。过分强调Linpack指标会偏离系统的实际情况,偏离市场需求,甚至会导致过分简单化的、不科学的、误导性的结论。下面列举一些断言,他们在市面上常常出现,但都不符合事实,或至少缺乏科学的严谨:
- Top500反映了全世界的高性能计算机市场,或全世界最快的500台计算机市
- Linpack指标越好的系统性能越强大。
- Linpack性能指标反映了系统的实际运算性能(sustained performance)
- Linpack效率指标反映了系统的实际效率。
高性能计算机市场包括技术计算、商业计算、网络服务三类应用,其中技术计算只占7-8%左右。Linpack并不反映商业计算和网络服务需求。即使对科学计算应用,Linpack也没有反映用户实际需求。在2003年IEEE机群计算国际会议上,NASA的一位计算中心主任在大会Panel中如此说道:“我们不关心Linpack指标,也不关心Linpack效率,哪怕指标很低、效率只有10%。我们只关心机群系统能够让科学家在给定时间内解决他的科学问题”。这种“time to solution”的需求已经引起了重视,美国启动了高生产力计算HPCS计划。
如果我们把Linpack指标作为高性能计算机的唯一设计目标、研究开发目标,我们实际上是在“研究开发”与Dell这样的公司已经在批量销售的大路货产品等价的同质竞争产品,会阻碍我国高性能计算机的发展。
质疑二:机群技术的研究开发向何处去?
Dell这样的公司已经在批量销售机群,机群技术的研究开发是否已走到头了?如何克服现有机群在效率、功耗、可用性、生产率等方面的问题?对这个问题有四种回答:
- 机群技术的研究已经到头了,机群已经是大路货产品。
- 机群并没有走到头,还有一些关键技术没有彻底突破。比如,2003年IEEE机群计算国际会议有一个共识,就是产业界还没有一个好的机群文件系统。
- 机群已经到头了,因为它的体系结构本身制约了它的发展,不能解决效率、功耗、可用性等方面的问题。我们需要研究革命性的创新体系结构概念。
- 第二代机群已经趋于成熟。但仍有很多创新机会,能够在机群框架下,解决用户抱怨的、第二代机群难以解决的问题。这将促生第三代机群(这是作者的提法)。
第三代机群:机群的创新机会
如果我们将1980年代的Vax机群称为第一代机群,那么,1994年推出的IBM SP2就是第二代机群的起点。随后近十年来,第二代机群获得了飞速发展。机群操作系统、商品化高速互联网络、高可用软件、机群文件系统等技术取得了很大的进步,尽管这些技术在SP2体系结构中已有定义[4]。今后几年,我们将看到第三代机群的出现,试图解决下列问题:
- 功耗效益:单位功耗所提供的性能(performance)与生产力(productivity)。
- 成本效益:单位成本所提供的性能(performance)与生产力(productivity)。
- 空间效益:单位空间所提供的性能(performance)与生产力(productivity)。
- 应用效益:用户实际能够得到的性能(performance)与生产力(productivity)。
- 单一系统映像与带宽、吞吐率的矛盾。
- 具有Petaflop/s计算能力和PB级存储能力的大规模系统的SUMA问题。
- 对网络计算与广泛普及的支持(即面向网格的超级服务器)。
- 建立高性能计算机的等级,针对不同的用户需求,提供不同等级的系统和服务。
Supercomputing 2003(SC2003)要点
SC的全称是“ACM/IEEE超级计算与网络国际会议及展览”,是全球高性能计算和网络最重要、最大的会议。SC2003于2003年11月在美国凤凰城召开,吸引了7000多名注册参会者、130个厂商展位、89个研究展位,1万多平方米的展厅全部售出(尚有30多家单位没有得到展位),空前火爆。
SC2003有很多特点,其中最突出的可能是Apple、微软和Dell这些微机公司进入高性能市场,第一次参展并提供了大型展位。这标志着高性能计算的日益普及。
第二个特点是存储的重要性越加明显。存储技术与系统的报告与展位很多。明年的SC2004可能将改称为“超级计算、网络与存储国际会议及展览”。
第三个特点是网格仍然很热,很多报告和一半以上的展位都与网格相关。
第四个特点是可重构计算技术的内容比2002年大大增加(如SGI的工作)。
第四个特点是新型体系结构的报告增多。我的印象最深的是Cray公司Burton Smith讲的Cascade,从总体结构、芯片、节点(locale)、系统软件、编程语言都有创新。Larry Smarr领头的Optiputer项目也很有意思,2003年IEEE Computer有一个专辑介绍。
其他的内容基本延续2002年。厂家推出了性能更好、价格更低的机器、软件、节点、网络(如10G以太网、10G Infiniband)等,也有很多应用内容。
中国第一次派出代表队参会并参展,同时举行了为期一天的“中国高性能计算与网格研讨会”。该研讨会共有约40名来自美国、日本和欧洲的注册参加者,其中美国政府界人士占三分之一、公司(如Cray、Intel、Platform、Sun、IDG)占三分之一、学术界同行占三分之一。美国政府界人士来自国务院、国家科学基金会(NSF)、国防部(DoD)、国家安全署(NSA)、能源部(DoE)和一些美国政府的Think Tank。
本次研讨会由美国ATIP公司和中科院计算所联合主办。本来希望有20名中国代表赴会。由于大部分人都没有得到签证,最后只有中科院计算所的樊建平、许鲁、刘淘英、廖华明、徐志伟5人参加。我们介绍了科技部863计划支持的“中国国家网格”、中国网格论坛、教育部网格、863支持的网络存储技术、科技部和其他部门支持的网格应用等研究工作和活动。徐志伟还向NSF和DoD人士了解了Cyberinfrastructure、高性能计算复兴计划和DARPA的HPCS计划。
ATIP认为研讨会很成功。会后,SC 2004组织者希望从中国科学家中推荐特邀讲者。
革命性体系结构及系统部件技术
美国国家科学基金会和NITRD认为,高性能计算机正处于重要的转折期,因此在2001年开始启动一系列项目,鼓励“革命性体系结构概念”的研究,其中的一个重点就是如何用好摩尔定律带来的硬件进步,提高计算机的效率(utilization)和生产力(productivity):
- 面向服务的或高生产力的高性能计算机体系结构、节点(或者叫其他名词)、处理器芯片、系统软件、编程语言
- 可信计算与自主计算(自律计算)技术
- 新型的通信技术和互联技术(如光互联、电容互联)
- 可重构技术
这方面可能的重要创新是很多的,我们在DARPA的HPCS计划中以可以看到一些端倪。比如Cray的Cascade高性能计算机计划,提出了Chapel高级编程语言和包括locale、light-weight threads、smart memory、PIM in dada cache、UMA/NUMA混合模型等概念的新型的体系结构。
网格技术的研究开发态势
美国国家科学基金会完成了Cyber infrastructure项目可行性报告,基本上确定了该项目的重要性和可行性,预计在2005年正式启动,国家每年投资6-10亿美元,网格和超级计算机将是核心部分。研究报告指出,政府需要支持Cyber infrastructure(尤其是其中的网格技术)的一个重要原因是:今后几年迫切需要政府资助的、大体量的、非商业的研究工作,领导业界产生统一的技术标准(provide critical mass and leadership to form standards);不然的话,网格将被厂家利益左右,变得支离破碎,大大减弱Cyber infrastructure的能力。欧盟的相应计划称为e-Infrastructure,在第六框架中已有体现。
欧洲国家从2001年正式启动了网格研究的一系列项目。德国最晚,但也在2003年启动了网格项目。其中英国的e-Science计划较为著名。英国政府非常重视网格技术的研究,他们认为网格是World Wide Web的必然后继者,投资2.4亿英镑左右支持网格研究项目(2001-2004,2003-2006两期共5年,每期1.2亿英镑),其应用领域包括粒子物理、生物信息学、气候环境变化、工程系统设计等多学科领域。
日本与韩国的网格计划已经启动,并各自成立了全国网格论坛。日本在2003年启动了“国家研究网格”(政府投入100亿日元,约1亿美元)和“商务网格”(政府投资20亿日元,企业配套占大头)。韩国的网格计划之一是N*Grid,2002-2006的五年计划将投资3500万美元,但不包括网络和高性能计算机的投入,后者每年投入为1500万美元。台湾也启动了“知识创新网格”的三年科研计划(2003-2005),总投资为3000万美元。
网格软件的研究开发早已不是停留在概念阶段,在部分领域已经进入了开发实用生产型系统的阶段。比如,美国的大银行JP Morgan-Chase已与IBM、Platform签约,开发实用的、具有业务整合、资源共享、协同工作特征的银行网格应用系统,该系统的一部分已经投入生产型运行。国内的网格研究可参看[8]。
英国e-Science网格
英国e-Science网格被认为是最先进的网格结构,见图11。可以看出,英国e-Science网格很重视数据。目前,上述体系结构还远没有实现。在2003年10月863网格专项总体组访问英国e-Science时,其状况如下(参见[1]):
- 应用主要集中在科学研究类应用;平均而言,每一个项目的人员投入(一般在20个工作人员左右)、工作时间、科学深度和实用水平比我国的应用项目要好。
- 整体结构还远未调整成OGSA,但已有OGSA的初步共识。目前的状况是:每个应用有一个portal入口,底层资源采用GT2、Condor、数据库、文件、web service等形式(即我们称之为物理资源的形式),portal服务器端软件直接调用物理资源。
- OGSA Platform层面的东西还很少,还没有863 CNGrid的GOS系统。他们有一个已经开发了三年多的ICENE,类似我们的GOS系统,但还不是基于OGSA框架、OGSI或GT3。
- 值得我们学习和借鉴的成果包括:
- e-Science整体结构及研究的整体布局和促进共识的交流方式(e-Science Institute、All Hands Meeting等)。
- 让应用科学家与计算机科学家互相配合、协同工作。
- OGSA-DAI与网格操作系统ICENE。
- Imperial College郭毅可(Yike Guo)领导的Discovery Net,不仅已有很好的应用,而且在service composition方面有独到之处(他们有十几年基础研究积累)。
图11.英国e-Science网格体系结构[1, 3]
OGSA/OGSI/Globus
2002-2003年的一个重要进展是OGSA/OGSI/GT3的推出,包括OGSA体系结构框架、OGSI协议规范和GT3 beta代码。在Foster和Kesselman的The Grid 2新书中,他们做了这样的比喻:OGSI之于网格就像TCP/IP协议之于Internet。作者并不十分同意他们的这个比喻,我认为还差一些基本的东西。
2002-2003年的另一个重要进展是网格的目的越来越清楚:metacomputing类应用不是网格的主流方向;网格主要是用来提供服务的。Carl Kesselman在2003年12月上海的GCC 2003会议上特别对此作了说明。
Globus团队现在也改变了他们的定位(改变了说法):他们不再提Globus是标准。他们的新说法是:网格的标准是OGSA,Globus是一个被广泛使用的OGSA参考实现。
目前,Globus Toolkit 3(GT3)只是实现到了OGSI层面,OGSA Platform层面的东西还很少。OGSA/OGSI团队认为,目前,grid service比web service有三个优点:dynamic service、stateful service、notification(events)。他们告诉作者,web service一定会在将来提供类似功能,而且比他们慢两年。2004年1月,Globus团队(The Globus Alliance)会同Akamai, HP, IBM, Sonic Software, TIBCO公司联合提出了WS-Notification与WS-Resource Framework两个web service规范,其目的是为了在web service框架内提供对state和event的支持。
2004-2005年Globus的roadmap大体上分成两个线索。一是沿着原来的GT2/GT3的GRAM往上走,逐步推出CAS、Index、WS-Agreement、WSDM等功能。另一个线索是数据,将以OGSA-DAI为起点往上逐步推出OGSA数据服务。在学术思路上,他们下一步更强调service federation,看起来是比service composition更为强有力的一个概念。
为了达到上述目标,Globus团队加强了联盟工作。除了阿岗实验室和南加州大学以外,2003年Globus团队新增加了两个研究组,即英国爱丁堡大学(主要做数据)和瑞典理工学院(主要做安全)。
网格面临的挑战
国外科技界(尤其是美国、欧洲、日本)的网格研究有一个共同点,即它们的主要应用是科学研究,主要目的是推动科学进步。迄今为止,网格界的领头团队仍然是Globus团队。这个团队原来是做高性能计算应用出身的,对计算机系统经验较少。因此,他们过去8年的研究轨迹是从metacomputing应用开始,经过Globus 2中间件,逐步转到今天的面向服务的分布式计算软件体系结构。Globus团队近3年的进步是很大的。他们领导产生的OGSA框架和OGSI协议是经过深思熟虑的产物,值得我们仔细学习和采用。但是,Globus团队领头的GGF近年来面临四个挑战。
第一,OGSA网格尽管已有IT界主要企业的参与和口头上的支持(和研究型的支持),但这些公司并没有全心把OGSA纳入自己产品的主流。他们还在观望。同时,IT界主要企业却在大力开发web service产品和服务。当然,web service也在往OGSA网格方向靠,最终这两者会融成一个东西(这也是IBM的官方观点)。尽管OGSA/OGSI团队认为他们目前比web service领先两年,但是web service最后覆盖并淹没OGSA网格是一个现实的危险。
反过来讲,web service也有自己的麻烦。非技术因素已经越来越影响它的发展。目前,公司已经在大打标准战,产业界已经有了四个与web service直接相关的标准化组织(W3C、OASIS、WS-I、Liberty Alliance)。目前的大致迹象是IBM与微软结盟,联手打其他厂家。这种早期的过分竞争可能造成产业的军阀割据,最后反而给予OGSA网格发展的机会。
OGSA/OGSI团队(尤其是Globus团队)对上述危机认识很清楚。他们一方面利用国家和志愿者的力量,走因特网路线,发展自己的技术和系统,影响产业;另一方面加强与公司的结盟。技术界为了避开这些非技术障碍,最近有些人干脆不提grid或web service,而是用service oriented这个共性词来表述相关工作,出现了service-oriented computing、service-oriented architecture、service-oriented platform、service-oriented programming、service-oriented applications等词语。
第二,Globus团队还受到学术界的质疑,认为他们做的东西主要是工程,缺乏研究,也缺乏显示度的应用。甚至有人已经提出应该停止他们的研究经费。Globus团队这个批评也认识很清楚。Globus核心团队(阿岗与南加大)目前有一个近80名工作人员的队伍,2004-2006三年有3000万美元的研究经费,所以三年之内他们的工作资源是有保障的(正式人员工资不需要从项目经费中出)。作者认为,对网格的健康发展,Globus团队至关重要,我们应该全力支持他们,目前的最好做法是采用并推动OGSA,研究工作与OGSA互补。
第三,学术界和产业研究界并不怀疑网格的科学目标,也不怀疑Global Great Grid的远景。但是,对如何达到这个目标(即approach)还没有达成完全的共识,而是有各自的想法。比如,OGSA和web service是力量最大的两个思路;英国学术界最近提出了Global Ubiquitous Computer的思想;IBM内部就在实践三种不同的思路。
第四,学术界的网格研究可能被产业界超越。IBM已经决定倾全公司的力量实施e-Business On Demand的战略(中文称为“电子商务随需应变”,其核心技术就是网格),并把它作为当年S/360系统那样重要的创新。IBM高层对网格的理解无论在学术界还是产业界都是第一流的。他们认为网格并不单单是一种技术,而是一种模式转折,它的出现和流行是必然的,因为它既符合摩尔定律等产业规律,又最符合广泛普及阶段的市场需求。
这当中值得网格研究者关注的产业研究开发工作就是微软的.Net战略实施。目前看来,尽管Longhorn/Blackomb进展有所延后,但微软投入了2000名研究开发人员,其.Net战略实施进程与其他公司相比是比较协调、比较快的。根据作者本人的了解和判断,微软的实施进程确实体现了重要的创新,.Net的操作系统将是继DOS、Windows之后的一个大变革;微软公司在2008-2014时段继续垄断软件平台市场是一个非常现实的可能场景。
网格的远景和科学问题
在他1999年的图灵奖获奖演说中[5],Jim Gray指出了计算机的研究开发的三个主要脉络,即巴贝奇问题(如何构造计算机系统)、布什问题(人机之间有什么关系、如何使用计算机)以及图灵问题(机器智能)。这三个问题互相影响,但各自仍有自己的发展脉络。Jim Gray认为,今后50年,计算机的研究开发仍然围绕这三个问题,他还把它们细化为12个技术难题。粗略地讲,今天计算所的系统结构室、智能中心、工程中心、网络室主要研究巴贝奇问题,数字化室等的人机接口工作主要研究布什问题,开放室主要研究图灵问题。
自Vannervar Bush在1945年发表“As We May Think”的经典文章后,布什问题的一个里程碑发生在1960年,利克莱德(J.C.R. Licklider)在IRE Transactions on Human Factors in Electronics杂志上发表了“Man-Computer Symbiosis”(人机共生)的论文[6],重点研究了人与电脑的关系,即“电脑的使用模式”的科学问题,得出了“人机共生”的insight,引导了交互式计算技术。利克莱德的思想和洞察力直接影响了电脑界其后40年的发展。比如,PARC的Alto微机将人机共生细化为人机交互,不是一人多机(分时),而是一人一机,从而发明了PC。为了解决交互难题,Alto将大部分(有人说达90%)资源用于屏幕显示。
我认为,今天是提出布什问题的一个新的metaphor的时候了,而且这个新的metaphor(新思想)就是“人机社会”。我有三个理由。第一,近几年来,计算所的各个课题组收集了很多零散杂乱的市场需求和用户需求,这些需求必须转换成为一套系统的、共性的科学问题和领悟,才能有效地加以研究和利用,从而沉淀核心技术。“人机社会”看起来是一个好的共性抽象。第二,“人机社会”能够为计算所的基础研究提供一个好的共性学科方向。第三,利克莱德提出“人机共生”思想已过去了43年,人类逐渐进入了网络计算时代,“人机社会”的思想是“人机共生”的自然进化,能够较好地概括新时代的科学问题。
“人机社会”的全称是“人与计算机组成的开放社会”(an open society of people and computers)。实际上,人机社会还包括自然界,这三个世界组成数字社会,见图8。在这个由人、机、物理世界组成的动态开放的三元社会中,我们如何设计和运行“机”这个虚拟空间,以支持数字社会的有效使用、协调发展,就是人机社会的根本问题。
“人机社会”不仅代表了网络计算的科学问题,也代表了一种解决这些问题的模式(paradigm)和领悟(insight),称为“社会计算”(society computing)或“社区计算”(community computing)。归结起来,人机社会在系统、界面和评价标准三个方面有六个特点,也就是与人机共生的六大区别,即多人多机(people and computers)、开放社会(open society)、深度交互(sophisticated interaction)、3A使用(any place, any time, and on any device)、以及全生命周期高生产率服务(full lifecycle high productivity services)。详情见[15]。
对如何实现“人机社会”的远景,学术界和产业界并没有统一的思路。对于网格的研究,比较突出的有四种技术路线:
- 解决方案法。为用户提供一个(专用的)网格解决方案,不管底层用何种技术。这是目前最常用的方法。
- 平台方法,又分为三种:
- 中间件法。提供一个传统意义上的网格中间件,网格服务请求通过中间件访问网格资源。
- 网络法。将网格看成一个网络,使用Internet和Web的思路发展网格软件,重点在协议。这是Globus的主要思路之一。
- 计算机系统法。将网格看成一个计算机系统,使用计算机体系结构的思路发展网格软件和硬件,重点在地址空间、操作系统、进程、和编程语言等体系结构的实体。这是织女星网格系统平台的主要思路[18]。
中国市场的新动向
近年来,中国市场出现了一些新动向,为高性能计算机和网格的研究开发提供了机会。在电力、通信、交通、制造业、电子商务、数字图书馆等行业,我们已经了解到实实在在的下述需求。用户对网格和服务化的思路也很热情。
- 用户希望“跨越发展”,而不是跟踪。“美国的今天就是我们的明天”已不成立。用户尤其希望避免重复发达国家的弯路。跨越的最重要的原因是降低成本、降低使用难度。
- 中国用户的需求并不比发达国家低。那种将国外技术引进回来,根据国内经费情况裁减到二分之一乃至十分之一的简单粗暴做法会越来越没有市场。用户希望使用创新技术降低成本,同时并不降低需求。这种创新技术不是刚刚发明的,而是已经有积累和实践检验的(有些用户将此种创新技术称为“成熟的先进技术”)。
- 用户对购买成本(purchase cost)仍然很敏感,但已经越来越意识到运行、维护成本等TCO的重要性。
- 除了功能和性能方面的优势以外,用户关心的竞争点包括:
- 大规模
- 可扩展
- 动态
- 易管理
- 易使用
- 低成本
- 高密度(低空间要求)
- 低功耗(包括低散热要求)
- 一针见血、简明扼要、同时又很科学的表述很重要。这常常要求有一个可测试、可演示的概念原型系统。对整个计算所而言,我们需要低成本的、可及时按需重构的演示系统,即demonstration of future on demand, at low cost。这可以大大降低我们与用户交流的成本,提高成果转化的效率。
对计算所的启示
国内外市场和同行的经验给我们下列启示: - 今后几年正是高性能计算机和网格技术突破性创新的好时机。我们应该勇于创新,利用IT的发展规律,抓住paradigm shifts带来的机遇,以高生产率的创新技术满足中国市场需求。这当中的一个关键是必须尽早推出可运行的实用系统,并且自己要使用。利用VIG项目的契机,实现Vega on Vega,从而使我们团队living in the market, living in the future。同时要重视分析与评价工作,避免“重发明、轻发现”。曙光机的研制可考虑采用“面向网格的第三代机群”的技术路线。
- 尽量早地集聚临界体量。办法包括(1)尽量使用国际标准技术,比如,近期应使用OGSI(WSRF),OGSA-DAI, GT3。(2)通过免费开放、开放源码、网格公司、合作伙伴等形式尽早转化成果。(3)实践计算所科研的经纬原则,以系统带技术,在坚持系统工程开发为根本的同时,要集中核心技术的研发,形成具有国际影响潜力的技术沉淀(见图12)。(4)各研究组要互补分工。比如:曙光机与蓝鲸存储的重点在对网格的支持;网格系统平台不考虑语义和内容,信息网格考虑内容(和小部分语义),知识网格主要解决语义问题;服务网格的重点是服务聚合。
图12. 织女星网格对计算所科研经纬原则的实践
参考文献
[1] M. Atkinson, UK e-Science & The National e-Science Centre, presentation to Chinese 863 delegation, Edinburg, U.K., October 2003.
[2] A.-L. Barabási, Linked, Penguin Group,
[3] I. Foster, C. Kesselman (Eds.), The Grid 2: Blueprint for a New Computing Infrastructure, Morgan Kaufmann Publishers,
[4] K. Hwang, Z. Xu, Scalable Parallel Computers: Technology, Architecture, Programming,
[5] Jim Gray, “What next?: A dozen information-technology research goals”, Journal of the ACM, Vol. 50, Issue 1, 2003, pp. 41 – 57.
[6] J.C.R. Licklider, “Man-Computer Symbiosis”, IRE Transactions on Human Factors in Electronics, 1960.
[7] Tsugio Makimoto(牧村次夫), “Towards the Second Digital Wave”, Sony CX-News, Vol. 33, August 2003.
[8] 孟丹客座主编,网格专辑,计算机研究与发展,第40卷,第12期,2003年12月。
[9] M. Seager, “Linux Clusters for Extremely Large Scientific Simulation”, Keynote speech at IEEE International Conference on Cluster Computing, Hong Kong, Dec. 2003.
[10] 徐志伟,“织女星网格的总体思路”,织女星网格文档VGD-1,2001年11月3日,1-7页。
[11] 徐志伟,“织女星网格:关键问题与设计原理”,织女星网格文档VGD-2,2002年11月22日,1-40页。
[12] 徐志伟,“关于VGUI与 GSML的若干注解”,织女星网格文档 VGS-1,2002年6月5日,1-6页。
[13] 徐志伟,“网格地址空间模型及其应用”,织女星网格文档 VGS-2,2003年2月10日,1-8页。
[14] 徐志伟,“网程:动机、需求与行为”,织女星网格文档VGS-3,2003年5月20日,1-13页。
[15] 徐志伟,“初论人机社会:一种网络计算模式”,织女星网格文档VGS-4,2003年6月30日,1-14页。
[16] 徐志伟,“关于网格社区的若干注记”,织女星网格文档VGS-8,2003年9月30日,1-8页。
[17] Z. Xu, W. Li, D. Liu, H. Yu, B. Li, “The GSML Tool Suite: A Supporting Environment for User-level Programming in Grids”, Proceedings of PDCAT 2003.
[18] Z. Xu, W. Li, “Vega Grid: A Computer Systems Approach to Grid Research”, Keynote speech paper at the Second International Workshop on Grid and Cooperative Computing (GCC 2003), Shanghai, China, Dec. 2003.