高性能計算機與網格的研究開發態勢
徐志偉
文檔狀態:本報告系列是我所“曙光高性能計算機”和“織女星網格”兩個品牌的相關研究開發動態與趨勢的整合與分析,也包括與“龍芯”品牌、存儲服務器相關的內容。另外,本報告系列關注計算機領域的突破性創新,對全所的工作都有參考作用。本報告主要關注國際研究開發趨勢,但也包括市場應用趨勢、對我所的影響。
本報告不定期推出,大約一年一次。本文是本系列第二個報告。第一個報告是《操作系統、網格、機羣研究開發的若干動向》(2002年8月5日)。更前的報告見《國外高端計算機的研究開發趨勢與對策》(2000年2月10日)。與織女星網格相關的報告見《織女星網格:關鍵問題與設計原理》(2002年11月22日)。本報告部分內容取自《電腦啓示錄》下篇《啓示錄•電腦的未來》草稿。
摘要:本文基於2002年8月至2003年12月,通過參加GGF-6、SC02、HPC Asia 2002、GCC2002、GGF-8、HPDC-13、SC03、Cluster 2003、GCC 2003以及與IBM 、HP、Sun、Intel、Platform和國際學術界的交流,對國內外相關市場(包括與計算所夥伴曙光、聯想、神州數碼、中科力騰、中國聯通、鐵路、國信辦等)調研和技術趨勢分析,以及我們自己的研究工作,總結了計算機體系結構、高性能計算與網格的若干研究開發態勢。
本文提出了下述幾點看法和一些思想:(1)計算機領域正在面臨着由網絡計算(亦稱網格)帶來的一次突破性創新。(2)高性能計算機並不等同於網格,兩者在今後15年都很重要,而且創新機會很多。隨着電腦技術的廣泛普及,社會對高性能計算機將成爲全球大網格的需求會日益增長。高性能計算機將成爲全球大網格的主機;而網絡計算與服務將成爲高性能計算機的主要工作負載。(3)中國市場和用戶正在從跟蹤方式向“需求驅動的跨越”方式轉移,跟蹤式研究不僅必然會導致學術持續落後,而且有落後於市場的危險。(4)這次突破性創新還有很多機會,今後2-4年是我們計算所在計算機系統和軟件領域做出經得起歷史考驗的科研成果的前所未有的時機。(5)我們可以通過“人機社會”凝練科學問題和研究目標,以曙光天劍網格計算機、織女星網格、IPv6網格、AVS網格、Vega-PG網格終端等系統爲載體,在2004-2006年內開發出網格資源空間、網程、網格社區、GSML軟件包等核心技術,從而提供高效的關鍵技術和應用平臺。
計算機領域面臨大轉折
儘管從市場和媒體角度看,電腦產業變幻無常,但事實上,電腦產業發展具有自身的規律。有些規律是技術領域的普遍規律,有些是電腦學科特有的;有些規律隨時間而變化,有些則比較持久;有些早已存在,有些則是近10年來逐漸浮現出來。本文討論適合於今後15年的六個基本規律,即摩爾定律、週期規律、網絡效應、小世界現象(網絡論)、病毒市場現象,因特網路線,以及隨之而來的幾個對2005-2020年電腦產業發展趨勢的判斷,總結了四個趨勢和它們構成的轉折。本節摘自《電腦啓示錄》下篇《啓示錄•電腦的未來》草稿。
計算機產業發展的六個規律
摩爾定律
電腦發展史上有一條規律40年一直未變,而且業界普遍認爲它會持續到2020年。這個規律就是摩爾定律。它說,一塊半導體集成電路芯片上的晶體管數每隔2年就要翻一番,從而使得芯片的性能(每秒鐘執行的指令數)也每隔2年就翻一番。
摩爾定律是一種經驗觀察,並不是牛頓定律一樣的物理規律。但它反映了市場需求,同時也是芯片廠商的響應。它有一種自我加強性:摩爾定律意味着不懈的競爭,芯片廠商爲了在市場上站住腳,必須不斷改進技術,這又反過來加強了摩爾定律。最新統計研究表明,半導體集成電路芯片上的晶體管數翻一番所花的時間並不是剛好兩年,而是有一些波動。在1965-1975年期間平均是17個月;在1975-1985年期間是22個月,在1985-1995年期間延長到了平均32個月,在1995-2003年期間又縮短到22-24個月。18個月是市場媒體的誇張。
週期規律與S曲線
任何技術的發展都遵循週期規律,亦稱S曲線。圖1是我們今天看得到的計算機技術的曲線,該圖是作者根據IBM副總裁烏拉道斯基-伯格博士的材料修改得來的。
圖2. 計算機技術的S曲線
週期規律包含如下要點:
- 任何技術都有一定的生命期。
- 生命期可以分成若干階段(圖1顯示了前四個階段,後面還有成熟、衰亡)。
- 每個階段都需要技術創新,但目的和重點有所不同。
- 每個階段是由一些更小的S曲線組合而成。
- 像“計算機科學與技術”這樣的一級學科,宏觀上講也是一種技術,也遵循週期規律。不過,它還包含很多子技術、子學科。每一項子技術也遵循週期規律,也有自己的S曲線。計算機學科的S曲線是由它的子技術的S曲線組合而成的。
網絡效應
網絡效應(network effect)在經濟學界早已熟知了,那就是一種商品的價值隨着其消費者的增多而提高。電話就是一個例子。如果全世界只有幾百個電話用戶,則電話的價值是不大的。公衆之所以認識到了電話的價值,電話之所以能夠廣泛普及,來源於電話用戶達到了一定的臨界量。用戶越多,則電話的價值就越大。
對電腦而言,我們還有更精確的規律(見《電腦啓示錄》中篇《硅谷的祕密》)。比如,麥特考夫定律說:“電腦網絡的價值(value, utility)正比於用戶數的平方。”布朗定律說:“電腦網絡的價值正比於網絡中社區個數的指數。”也就是說,網絡的價值 ∝ 2c ,c是社區個數。有的民口人士將價值稱爲生產力,而一些軍口人士(如美軍GIG)將價值稱爲戰鬥力。
這兩條定律有三個關鍵點:第一,網絡要普及,不僅要有物理層面的連通,而且必須是用戶看到的,能夠方便地使用起來的連通。只是把電腦用網線連起來是不夠的,必須在應用層面連通起來,讓用戶享受到高質量的服務。
第二,網絡的價值隨着用戶數增多而超線性的增長。因此,最優化的方法是將全世界的用戶(和系統、應用)都連在一個大網裏,徹底消除信息孤島。同時,在這個連通所有用戶的大網裏提供儘量多的社區(以及社區帶來的高質量服務),供用戶選擇。
第三,信息的價值正比於共享程度。網絡效應的根本原因是它鼓勵信息共享。因此,今後的價值優化發展趨勢是,在安全和合法的範圍內,最大程度地鼓勵信息共享。
網絡效應說明了,必須把全球的電腦資源連通爲一體,最大程度地共享,方便地提供用戶使用,才能最優地增大電腦網絡的價值,才能促進電腦的廣泛普及。
小世界現象(網絡論)
近15年來,科學家們已經發現,電腦網絡是有其內部規律的,這些規律也適合於電腦的用戶羣。而且,這些規律並不侷限於電腦網絡,在生物學、經濟學、社會學、生態學等等學科中普遍存在,很可能是一種普遍的規律。因此,這些研究產生的論文大部分發表在《科學》、《自然》、《物理評論通訊》等自然科學的學術期刊上。這些規律互相關聯,還沒有統一的名稱。有人稱其爲網絡論(net theory),也有人用其中的一個主要結果作爲代表,稱爲“小世界現象”。文獻[2]對網絡論作了精彩而通俗的介紹。這些科學發現有下列要點:
- 小世界現象:網絡的分離度(degree of separation)通常是很小的
- 網絡具有結構:冪數率(power law)與中心結點(hub)、蝴蝶結圖
- 網絡的結構和系統性質來自於自組織、成長與競爭
作者認爲,網絡論正在成長爲一門繼系統論、信息論和控制論之後的與計算機相關的重要理論。它的成果對電腦的廣泛普及、對計算機學科的未來發展可能會產生直接影響。
比如,網絡的這些符合冪數律的結構特徵對網絡的安全可靠性有直接影響。拋開很多細節不談,網絡論研究已初步表明:網絡既是健壯的(robust)又是脆弱的(vulnerable)。說網絡是健壯的,是因爲滿足冪數律的網絡具有抵禦隨機、自然故障的能力。比如,全球因特網中,每個時刻都有幾百個路由器出故障,但因特網服務總體上卻沒有受影響。說網絡是脆弱的,是因爲它不能應付惡意的攻擊和級連故障(cascading failure)。一個黑客、一個病毒如果有選擇地惡意攻擊因特網的中心結點,可以導致整個網絡崩潰。這個本質性的結果告訴我們,如何應對網絡的脆弱性是今後20年的一個研究熱點。
病毒性市場現象
在網絡計算時代,在電腦的廣泛普及階段,什麼樣的產品和服務最能夠快速、廣泛地流行呢?
答案很清楚,這些產品和服務一定要有病毒的特徵。事實上,電腦病毒的流行是如此之快而廣泛,我們每年都要花費大量的財力和精力去對付它。那麼,我們能不能把我們的有用的產品和服務做得像病毒那些易於流行呢?這需要我們瞭解病毒的市場特徵。
爲什麼電腦病毒易於流行呢?是不是功能和性能呢?顯然不是。沒有用戶會去有意地“使用”病毒的功能。當然,有用的產品和服務必須爲用戶提供功能和價值,但功能和價值並不是病毒流行的原因。專家們總結出了病毒的六個市場特徵:
- 連通性。病毒必須要通過一個連通的網絡才能流行。在一個充滿孤島的支離破碎的網絡中,病毒是很難流行的。
- 冪數律。病毒性市場現象在經濟學中早已有所涉及。但這些傳統研究表明,病毒必須積累到一定的臨界數量或臨界閾值(critical threshold)才能流行。最新研究則表明,當病毒作用於一個滿足冪數律的網絡時,這個臨界閾值幾乎不存在。病毒用不着在網絡中積累到一定臨界數量,而是可以通過中心結點迅速傳播。
- 低成本。對用戶還言,病毒的成本極低。事實上,沒有人會出錢去買一個病毒來使用,病毒的購買價格是零。
- 好使用。病毒的“使用”是非常方便的。用戶用不着花費任何金錢和精力去獲取、安裝、使用和維護病毒,也用不着去受任何培訓、去看使用手冊。一切都是病毒自己自動完成的,用戶用不着任何投資,也沒有金錢和精力的開銷。這樣,不僅病毒的購買價格是零,它的總擁有成本(Total Cost of Ownership, TCO)也是零。
- 易傳播。病毒的傳播也是很容易的,用戶沒有任何開銷。用戶在自己的電腦上每“使用”一次病毒,該病毒就會自動地傳播出去,使另外一個或多個用戶成爲該病毒的客戶。隨着每次“使用”,病毒的用戶羣日益擴大,病毒迅速流行。
- 強黏糊(sticky)。病毒的黏糊性很強,如果用戶不花精力刻意去搞掉它,病毒會一直在系統中持續地發揮作用。
開放規律與因特網路線
電腦發展60年的歷史表明,開放的技術較易流行。這就是開放規律。電腦技術的發展有多種多樣的方式,如政府資助的純研究、應用研究和原型開發,也有公司資助的研究和產品開發。但是,有一種方式的重要性將會上升,而這種方式在中國還很少實踐,也不太爲人所知,甚至不爲人理解。這種方式就是因特網路線。
因特網路線實際上在因特網誕生之前就被人們實踐着,但在因特網的發展中體現得最充分。在電腦歷史上,人們採用因特網路線做出了很多重要的創新,其中著名的技術包括因特網和GNU/Linux操作系統。近二十年來,採用或部分採用因特網路線進行電腦創新的人越來越多,它正在成爲網絡計算時代最重要的創新技術路線。因特網路線有五個要點,即人民性、領導性,開放標準、粗略共識、運行代碼。詳見《電腦啓示錄》下篇。
計算機產業發展的四個趨勢
本節簡單說明四個趨勢(圖2)。《電腦啓示錄》下篇有更詳細的闡述。
1999年11月,美國政府的國家情報委員會委託著名的思想庫蘭德公司(RAND)組織一次未來研究,探討2020年全球信息技術的景象。蘭德公司組織了全美數十名學術界、企業界、政府界和非政府組織的專家進行了近兩年的研究,得出了具有高度共識的結論,認爲下列五項技術將成爲今後20年的突破性創新技術,並對信息技術市場產生廣泛影響:
- 光通信(Optical Communication)。全部採用光學原理的通信技術將能提高通信速度數千倍,達到每秒數萬億比特。這將大大改變計算機體系結構、操作系統、網絡協議和應用軟件。
- 廣泛互聯(Universal Connectivity)。通過各種無線和有線的互聯技術,人們將隨時隨地都可以聯在網上。而這將產生各種各樣的新產品和服務,改變政府、企業、金融業的運作模式。
- 普遍計算(Ubiqutous Computing)。計算機將無所不在。各種嵌入式計算機將存在於各種設備、工具和設施當中(衣服、家用電器、住宅、辦公樓、汽車、公路等等),爲人們的衣食住行和工作提供智能監控與服務。
- 傳感器(Pervasive Sensors)。傳感器將無所不在。通過各種各樣的廉價的傳感器和短距離無線通信技術,人們的物理世界將與虛擬世界耦合於一體。
- 全球信息功用設施(Global Information Utilities)。人們將實現1960年代提出的信息網格夢想,像使用電力、電話一樣方便地獲取信息服務。
蘭德公司的這項研究還有一個很有趣的特徵,就是專家們花了很大功夫找出預測未來的最好方法。他們總結了歷史上人們用於預測未來的三類方法。(1)一廂情願法(wishful thinking):表達人對未來的願望和擔心,但較少客觀的依據。這種方法用得最多,但準確性較差。(2)趨勢外推法(trends extrapolation):即根據已知的現實情況,總結出未來趨勢。這種方法對10-15年內的情況比較準確,但不適合更長時間的預測,因爲它難以考慮到人類社會對技術發展的互動影響。(3)活動空地法(reading the clearing):從社會、文化、歷史、技術等環境因素,找出人類活動的“空地”。只有空地內的發展纔是可能的。這個方法之所以被稱爲“空地法”,是因爲它借用了森林中的空地的比喻,空地之內是人們創新活動的空間,空地之外的環境不允許人們活動。這種
方法對15-20年的預測比較準確。
如果我們利用趨勢外推法和活動空地法,以電腦發展的六條規律爲線索,我們可以預測今後10-15年電腦產業可能的四個主要趨勢,即摩爾定律趨勢、廣泛普及趨勢、網絡計算趨勢、因特網路線趨勢。這些預測並不只是作者個人的判斷,而是在一定程度上總結了電腦產業界的共識。這些判斷可以用圖2表示。
摩爾定律與革命性體系結構概念、牧村浪潮
摩爾定律在2020年以前會繼續成立。因此,在硬件電路層面不會發生大的轉折,半導體集成電路仍然保持主流地位。但是,如何利用摩爾定律來有效地構造部件和系統卻不是確定的,硬件芯片和系統層面可能發生大的創新。
摩爾定律的一個有效應用就是SIA Roadmap。下表顯示了SIA Roadmap(2002)對2002年、2005年、2016年的部分預測數據。SIA的其它研究表明,摩爾定律到2020年都會成立,下表的趨勢可以延續到2020年。
高檔處理器芯片的發展趨勢(數據來源於SIA)
技術指標參數 |
2002年 |
2005年 |
2016年 |
工藝(微米) |
0.13 |
0.08 |
0.022 |
主頻(GHz) |
2.3 |
5.2 |
28.8 |
管腳數(根) |
1320 |
1760 |
4702 |
晶體管數(億個) |
3.48 |
6.97 |
88.48 |
電壓(伏) |
1.0 |
0.9 |
0.4 |
最大允許功耗(瓦) |
140 |
170 |
288 |
成本(美分/100萬晶體管) |
69 |
24 |
0.54 |
成本(美元/芯片) |
240 |
163 |
48 |
高檔內存芯片(DRAM)的發展趨勢(數據來源於SIA)
|
2002年 |
2005年 |
2016年 |
工藝(微米) |
0.115 |
0.08 |
0.022 |
容量(Gbit) |
2.15 |
8.59 |
68.72 |
成本(美分/Mbit) |
5.4 |
1.9 |
0.042 |
成本(美元/芯片) |
116 |
163 |
29 |
2002年,一枚高檔CPU芯片採用0.13微米工藝,成本爲240美元,主頻爲2.3 GHz,內含3.48億個晶體管,每100萬個晶體管的成本爲69美分。到了2016年,一枚高檔CPU芯片將採用0.022微米(22納米)工藝,主頻增長到28.8 GHz,內含88億個晶體管,成本卻降到48美元,即每100萬個晶體管的成本爲0.54美分。
計算機硬件部件可分爲處理(含控制)、內部存貯、外部存貯、互連和外部設備。根據上面的討論,我們可以給出下列判斷:
- 在2005-2020年時段,摩爾定律繼續成立。
- 處理部件的主流技術仍將是半導體集成電路。
- 內部存貯的主流技術仍將是半導體集成電路。
- 外部存貯的主流技術仍將是磁性材料技術以及半導體集成電路;納米材料存貯技術有可能成功,但不確定。
- 互連的主流技術將是(傳統)電路以及光互連技術。
總之,在今後20年,半導體集成電路仍將是計算機的主流技術,其它新興的技術(如量子計算、分子計算、生物計算)還難以取代它。
由於摩爾定律繼續成立,我們對今天已有的硬件可以做出一些頗有把握的推斷。比如,今天一臺桌面微機的全部電路今後可以縮小到手掌中(如手機、PDA),而今天的手持設備的全部電路可以縮小到指甲大小、甚至米粒大小。這後一種硬件已經有很多產品原型了,稱爲“智能微塵”(smart dust或motes)。
但是,如何利用摩爾定律帶來的硬件進步?如何將它有效地映射到人們的需求和市場產品與服務中?人們是應該將這些電路的進步應用於計算,還是應該用於存貯、用於通信?或許我們應該採用當年施樂公司PARC研究所的科學家發明Alto微機時的思路,將90%的電路資源用於屏幕顯示(即交互)?是將這些進步應用於提高性能和功能,還是用於降低成本或者提高好用性?業界對這些問題有很多回答,而且今後的發展還有很大的不確定性。
美國國家科學基金會認爲,高性能計算機正處於重要的轉折期,因此在2001年開始啓動一系列項目,鼓勵“革命性體系結構概念”的研究,其中的一個重點就是如何用好摩爾定律帶來的硬件進步,提高計算機的效率和生產力。更多細節見下文。
讓我們不要考慮整個電腦系統,只集中於半導體數字電路芯片。在這個領域,針對如何有效地使用摩爾定律的問題,電腦界已經總結出了一個宏觀規律,稱爲牧村浪潮(見圖3)。這個經驗觀察規律是日立公司的首席技術專家牧村次夫於1987年第一次提出的,並於2001年加以修訂,以覆蓋2007-2017年的預測情況。經過了十餘年的檢驗,人們發現這個經驗觀察比較精確。現在,牧村浪潮已經越來越受到人們的重視。
當牧村次夫在1987年第一次提出他的觀察(後來人稱牧村浪潮)時,他只考慮了1957到2007年的情況。牧村浪潮包含三個要點。第一,半導體芯片產業交替重複標準化和專用化的週期;第二,這些週期同時受技術和市場因素推動產生;第三,每個週期爲時大約20年,標準化階段和專用化階段各爲10年。
半導體芯片的牧村浪潮(Makimoto’s Waves)
牧村浪潮的成立是由市場和技術的原因造成的。在2003年,牧村次夫再次將這些原因歸納比喻爲一種鐘擺運動(見圖4),闡述了芯片產業重複標準化和專用化週期的道理[7]。
牧村次夫認爲,我們現在處於這樣一個可重構階段(field programmability,FPGA是一個例子):半導體產業界的技術(尤其是製造技術)是標準化主導(因爲製造成本太高),但市場卻是專用化主導。因此,標準可重構芯片正是解決標準化技術和專用化市場這一矛盾的最好途徑。需要可重構的另一個原因是產品升級太快,一個芯片的使用週期從3-5年降到了1年(儘管使用總量可能不變)。可重構才能適應這樣的變化(見圖5)。牧村次夫預測,這將適應我們正在進入的,以微機爲代表的第一次數字浪潮以後的第二次數字浪潮,它的特點將是數字化消費者電子和網絡產品(見圖6),其市場將超過第一次數字浪潮。
ASIC的成本優勢正在消失。量越大,ASIC的總成本越低。但是,到2005年,300 MHz、30萬門的芯片產品,如果量超過30萬片,FPGA的總成本將低於ASIC芯片。
圖5. 牧村浪潮的市場和技術原因:鐘擺運動
“When large numbers of new technologies, such as devices, architectures, and software, appear, the semiconductor industry as a whole moves towards standardization. Then, aspects appear that function to suppress this motion, [such as] the need for product differentiation and added value, and the imbalance between supply and demand. In the other direction, progress in design automation and advances in technologies such as
標準可重構芯片之後是什麼呢?牧村次夫預測是另一個專用化階段。其技術特徵是SoC/SiP,使用maskless technology(以降低mask的成本)和superconnector技術(以解決連線問題)。它的市場特徵是充分利用網絡化趨勢的電子業務(e-business that takes full advantage of networks)。見圖3。
圖6. 芯片產品的生命週期大大縮短
圖7. 牧村次夫預測的第二次數字浪潮
廣泛普及趨勢
電腦將進入廣泛普及階段。電腦的用戶羣將成倍擴張,電腦網絡將像自來水、電力、電話一樣成爲社會大衆工作和生活的必需品。
應用成爲電腦學科主題。由於廣泛普及,信息技術市場年產值將增長到20萬億美元,大部分將是應用。這就像當年電力技術的發展一樣。今天,電力技術本身的市場仍在發展,2000年全球電力消費量增長4.24%。但是,電力技術應用的市場卻大得多,產生了新的產業:電話叫通信產業,電臺、電視叫傳媒產業,電腦屬於信息產業,鍊鋼電爐屬於鋼鐵工業。
就像今天我們有這麼多的“電X”一樣,2020年的世界市場上將充滿各種各樣的“信息X”、“數字X”、“電子X”或“X信息”、“X數字”、“X電子”的產品和服務。他們還可能被賦予更“酷”的名字。
低成本、使用方便、易於傳播將成爲流行技術的主要特徵。儘管高端技術仍然會不斷髮展,技術提供者將不再單純以功能和性能作爲產品和服務的主要競爭力。電腦界長期以來的這種以技術爲中心的做法將逐漸讓位於以人爲中心、以用戶爲中心的模式。
網絡計算趨勢(網格化趨勢)
如果我們從用戶角度看計算機系統總體結構從1960年到2020年的演變,我們可以總結一條歷史經驗觀察,姑且稱之爲三國定律:“天下大勢:分久必合、合久必分”;每個分、合階段大約主導15年(見圖7)。我們已經經歷了三種模式。大型機/終端是早期的主導模式,其主要優點是使用方便和易於管理,其主要缺點是開放性差、不易擴展、以及價格昂貴。爲克服這些缺點,客戶/服務器(client-server)模式應運而生。集中在大型主機(Mainframe)中的服務器功能被打散分佈到多臺獨立的開放式服務器,通過網絡與各類客戶機(工作站、PC,網絡終端,NC等)相聯。服務器聚集(server consolidation)又被稱爲因特網數據中心(IDC)和服務器堆(server farm)模式。它用一套物理上集中式服務器同時提供多臺獨立服務器的功能,並將儘量多的功能從客戶端移回集中式服務器端,以提高系統的可管理性。
網絡計算將是今後15年的時代標誌。我們目前正在進入一個新的“分”的階段,即服務器聚集物理上分散到各地,但仍然保持虛擬的單一系統映像。這也可以看成是一種特殊的“合”,即多個IDC的資源被互連成爲一個虛擬的網格計算機,各種客戶端設備通過功用(utility)方式使用網格資源。在這個網絡計算時代,孤立的計算機系統、軟件和應用將被網絡化的產品和服務取代。世界將被互連成爲一個開放的、一體化的、資源共享的全球電腦網絡,也稱爲全球大網格(Great Global Grid)。這是電腦廣泛普及的必然要求。正如馬頌德研究員所闡述的,一項技術往往要在網格化以後才能廣泛普及。蘭德公司的5項預測中,後4項(廣泛互聯、普遍計算、傳感器、信息網格)都是網格化趨勢的一個側面。
電腦系統總體結構的三國規律(S: Server, C: Client,網格圖片來自IBM)
網格化趨勢將是計算機廣泛普及的主要技術推動力。網格化的特徵是網絡化、服務化。它將使得網絡效應逐步得到充分發揮,從而推動電腦的廣泛普及。全球電腦網絡將演變成爲有結構的小世界。它通過自我組織、通過成長,演變成爲一個符合冪數律的動態開放的人機社會。物理世界(physical world)、數字虛擬空間(cyberspace)、人類社會三個世界將通過接入設備(接口設備)和傳感器連通成爲一個三元世界,組成數字社會(見圖8)。
圖9. 物理世界、數字虛擬空間、人類社會通過接入設備和傳感器連通組成的數字社會
電腦產業將從摩爾定律主導變爲網絡效應主導。今後20年,摩爾定律仍然將是電腦產業界的基本定律。但是,摩爾定律是電腦產業共同的定律,它的一個後果就是大路貨化、同質競爭。每一個創新團隊要想突破同質競爭、提高競爭力,必需深入思考如何有效地利用摩爾定律去最大程度地發揮網絡效應。在今後10年之內,我們看得到兩種趨勢:
- 網絡應用。網絡服務將成爲最重要的電腦應用。
- 計算機電子(computer electronics,即圖6中的數字化消費者電子和網絡產品)。圖8中的多種接入設備(如數碼相機)和傳感器設備(如RFID設備)在很多時候將可能是離線方式工作,成爲看起來是單獨工作的計算機電子設備。
如果我們將時間尺度拉長到今後20年,隨着無線通信技術的進展,計算機電子設備(第二次數字浪潮)的缺省方式將有可能變成在線方式,隨時隨地連通到信息網絡的虛擬世界。
因特網路線趨勢
人們將用什麼樣的技術路線來開發和使用廣泛普及階段的網格化技術呢?
因特網路線將成爲主流技術路線。基於先進技術和同行共識的開放標準是主要的目標。人民更加主動地參與電腦網絡的創新和應用;人民利益更加得到體現。
廣大人民不僅是被動的用戶和消費者,他們同時將成爲信息技術和信息資源的生產者和開發者。信息技術廠家和運營商將難以壟斷市場,控制人民的行爲。
由於網格化趨勢,以及由此產生的網絡效應、小世界現象、病毒性市場現象,信息產業的技術門檻降低。個人、志願者團體、小公司產生的先進技術比現在更有可能流行。一個優秀的、領導性的小團隊也可能影響產業。
高性能計算機的研究開發態勢
機羣
過去十年來,(第二代)機羣技術發展迅猛,現在已成爲中高檔高性能計算機市場的主流產品。機羣系統的技術門檻不斷降低,Linpack機羣已成爲大路貨。但是,用戶和科技人員已對現有的機羣及其發展提出了兩種質疑。這些質疑同時也指出了機羣技術未來的創新機會,可能在今後幾年內促生第三代機羣。
機羣已成爲中高檔高性能計算機主流產品
在過去十年中,高性能計算機發展最快的體系結構種類是SMP和機羣。從今天的市場(包括技術計算市場和大得多的服務器市場)佔有率看,低檔高性能計算機的主流是SMP,而機羣,尤其是SMP機羣,已經成爲中高檔高性能計算機的主流。其他體系結構(PVP、PVP-NUMA、ccNUMA)的市場佔有率要小的多,而且很難看出他們有加速發展的可能。
機羣的應用水平也不斷提高,不論是在技術計算(科學計算與工程模擬)領域、商務應用(事務處理與數據處理)領域、互聯網主機應用領域,都是如此。
第二代機羣市場發展迅速的主要原因有三個。第一,機羣採用了開放的結構,技術門檻較易不斷降低,較易普及。第二,機羣比其他結構更容易利用摩爾定律,從而成本不斷降低。第三,機羣使用了比較穩定的編程模式(和使用模式),從而促使應用水平不斷提高。
下面用一個高端用戶的例子具體說明(見圖9和圖10)。素材來自與美國能源部勞倫斯利弗摩實驗室(LLNL)的Mark Seager的交流,參見[9]。
圖10. 美國能源部勞倫斯利弗摩實驗室(LLNL)的高性能計算機發展史
LLNL是全球高性能計算機使用較好的一個應用大戶。從1970年的IBM 704開始,持續使用高性能計算機已有33年的歷史,經驗比較豐富。美國能源部最近投入4億美元,在LLNL建設“萬億級模擬設施”Terascale Simulation Facility(TSF),預計2005年完成。屆時TSF的峯值計算能力將接近每秒500萬億次浮點運算(0.5 PetaFlop/s),比1980年代的CDC 7600增加了上百萬倍,或6個數量級。從圖9的峯值速度曲線可以看出,機羣的引入對保證高性能計算能力按照摩爾定律增長起到了關鍵作用。如果LLNL沿用過去的CDC機和Cray向量機的路線,計算能力的增長要緩慢的多。
機羣的引入也使得升級換代更加頻繁。CDC 7600機使用時間最長,達18年。Cray向量機使用時間爲7-10年。Mark Seager告訴作者,機羣系統通常在4-5年退役。這一方面是爲了更好地利用摩爾定律帶來的系統進步,另一方面是因爲機羣使用了比較穩定的編程模式(如MPI+OpenMP),使得升級換代不需要大量的程序移植工作,從而能夠控制總擁有成本,使得總擁有性能價格比更高(參見圖10)。
由於機羣系統在5年內退役,它必須提供更高的生產性應用的使用效率和更高的價值,才能得到好的ROI,才能物有所值。穩定的編程模式、通過共享資源提高利用率等具有很大的意義。LLNL的經驗顯示,必須儘早使系統投入生產型應用(time to production)。爲此,LLNL採用了一種“三個曲線”的方法(見圖10),即同時規劃和提供三類系統(生產、準生產、研究),形成三個互補的增長曲線。2000-2005年期間,LLNL的生產類系統主要是IBM等廠商的RISC芯片Unix機羣,用於日常生產使用。準生產類系統主要是IA32/IA64/AMD芯片Linux機羣,爲下一代生產使用作準備。研究類系統目前考慮的是IBM Blue Gene/L以及以後的基於Cell處理器芯片的機羣系統,其目的是爲下一代生產使用和更長遠的千萬億次級系統作準備。
圖11. LLNL的高性能計算機三個曲線(生產、準生產、研究)
Linpack機羣已成爲大路貨(Commodity)
Linpack機羣,即通過組裝商品化部件(市場上很容易買得到或開放源碼的部件),以取得好的Linpack測試值(Top500排名)爲目標的機羣,已經成爲像微機一樣的大路貨。
美國聖地亞哥超級計算中心的Philip Papadopoulos(他是IEEE Cluster 2004的程序委員會主席)總結了這個現狀:“It is straightforward and fast to get a working and stable cluster”。他在SC2003現場驗證了這個論斷:他帶領一個20人的團隊,使用市場上很容易買得到或開放源碼的部件,在2小時內組裝了一臺數百個CPU的機羣並投入運行科學計算應用。
2003年,美國Virginia Tech大學花了520萬美元和三個月左右的時間,利用現成部件,自行構建了一臺2200個CPU的機羣,峯值速度爲17 Tflop/s,Linpack測試值爲10 Tflop/s,在2003年11月的Top500排名第三,僅次於地球模擬器(耗資3億多美元)和ASCI-Q(耗資約1億美元)。這個項目的主要勞動力是學生志願者。事實上,這臺系統比一般的Linpack機羣要麻煩一些,因爲它使用Apple公司的G5節點和Mac OS。
Linpack機羣已成爲大路貨的最明顯的標誌是,微機廠商大頭,如Apple、微軟和Dell公司,在2003年大舉進入機羣市場。他們在2003年第一次參展ACM/IEEE Supercomputing國際會議,提供了大型展位。
Dell公司人員告訴作者,技術計算機羣與微機沒有兩樣,都是大路貨。Dell公司已經開始把Dell模式用於機羣,像生產、銷售Dell微機那樣生產、銷售機羣。Dell公司已經可以提供機羣的1小時報價、1周供貨和1天安裝(1 hour quote, 1 week delivery, 1 day install)。目前,Dell公司通過Dell模式每週銷售20臺機羣。在2003年,Dell公司銷售的最大機羣是一個不公開的系統,含6000個處理器;公開的最大Dell機羣是一個3000個處理器的系統。Dell的第三大機羣在2003年11月的Top500排名第四,是一個2500個處理器、峯值速度爲15 Tflop/s的系統。
Dell的第三大機羣在2003年11月的Top500排名第四充分說明了Linpack機羣已成爲大路貨。競爭的焦點已不是技術研發,而是生產、銷售、管理。這方面,Dell模式(即commodization,或大路貨化,Dell自己用的另一個名詞是Dell Direct Model)目前是市場上最先進的模式。Dell模式是當年Compaq模式的進一步創新,其優點是成本很低,從而在保證具有市場競爭力的低價位的同時,仍有可觀的利潤。
Linpack機羣成爲大路貨,總的來講是好事。這說明高性能計算技術的門檻降低,已進入了一個市場普及的新階段;說明市場對機羣的需求在快速增長,並且已達到了一定的臨界數量;說明機羣技術已成爲高性能計算機的主流。這也證明863計劃在1995年支持曙光2000機羣超級服務器思路的選擇是對的。那個時候,第二代機羣剛剛出現,很不成熟,遠不能肯定它能像今天這樣成功。863計劃在當初做出這個選擇要冒風險,是有預見性的。其難度相當於今天(2004年)我們要預測2010-2012年的高性能計算機主流市場產品。
但是,這也提出了一些新問題和挑戰。
Linpack機羣受到兩種質疑
近幾年來,Linpack機羣受到了科技界和市場用戶的兩種質疑。這些質疑的聲音在近兩年已經很大了。美國政府、學術界和一些廠家已經採取措施應對這些問題。
質疑一:是否應該把Linpack指標作爲高性能計算機,特別是機羣的設計目標?
用Linpack指標作爲高性能計算機的性能評價指標有很多優點。比如,Linpack是一個密集矩陣線性方程組應用,而不是簡單的玩具程序。同時,它又具有程序小、較易操作等基準程序優點。因此,Linpack benchmark和Top500近20年來一直被使用,今後還會被使用。
Linpack流行的另一個原因是目前還沒有比它更好的簡單benchmark。
但是,Linpack指標只反映了高性能計算機的一個側面,只能用作一個參考。過分強調Linpack指標會偏離系統的實際情況,偏離市場需求,甚至會導致過分簡單化的、不科學的、誤導性的結論。下面列舉一些斷言,他們在市面上常常出現,但都不符合事實,或至少缺乏科學的嚴謹:
- Top500反映了全世界的高性能計算機市場,或全世界最快的500臺計算機市
- Linpack指標越好的系統性能越強大。
- Linpack性能指標反映了系統的實際運算性能(sustained performance)
- Linpack效率指標反映了系統的實際效率。
高性能計算機市場包括技術計算、商業計算、網絡服務三類應用,其中技術計算只佔7-8%左右。Linpack並不反映商業計算和網絡服務需求。即使對科學計算應用,Linpack也沒有反映用戶實際需求。在2003年IEEE機羣計算國際會議上,NASA的一位計算中心主任在大會Panel中如此說道:“我們不關心Linpack指標,也不關心Linpack效率,哪怕指標很低、效率只有10%。我們只關心機羣系統能夠讓科學家在給定時間內解決他的科學問題”。這種“time to solution”的需求已經引起了重視,美國啓動了高生產力計算HPCS計劃。
如果我們把Linpack指標作爲高性能計算機的唯一設計目標、研究開發目標,我們實際上是在“研究開發”與Dell這樣的公司已經在批量銷售的大路貨產品等價的同質競爭產品,會阻礙我國高性能計算機的發展。
質疑二:機羣技術的研究開發向何處去?
Dell這樣的公司已經在批量銷售機羣,機羣技術的研究開發是否已走到頭了?如何克服現有機羣在效率、功耗、可用性、生產率等方面的問題?對這個問題有四種回答:
- 機羣技術的研究已經到頭了,機羣已經是大路貨產品。
- 機羣並沒有走到頭,還有一些關鍵技術沒有徹底突破。比如,2003年IEEE機羣計算國際會議有一個共識,就是產業界還沒有一個好的機羣文件系統。
- 機羣已經到頭了,因爲它的體系結構本身制約了它的發展,不能解決效率、功耗、可用性等方面的問題。我們需要研究革命性的創新體系結構概念。
- 第二代機羣已經趨於成熟。但仍有很多創新機會,能夠在機羣框架下,解決用戶抱怨的、第二代機羣難以解決的問題。這將促生第三代機羣(這是作者的提法)。
第三代機羣:機羣的創新機會
如果我們將1980年代的Vax機羣稱爲第一代機羣,那麼,1994年推出的IBM SP2就是第二代機羣的起點。隨後近十年來,第二代機羣獲得了飛速發展。機羣操作系統、商品化高速互聯網絡、高可用軟件、機羣文件系統等技術取得了很大的進步,儘管這些技術在SP2體系結構中已有定義[4]。今後幾年,我們將看到第三代機羣的出現,試圖解決下列問題:
- 功耗效益:單位功耗所提供的性能(performance)與生產力(productivity)。
- 成本效益:單位成本所提供的性能(performance)與生產力(productivity)。
- 空間效益:單位空間所提供的性能(performance)與生產力(productivity)。
- 應用效益:用戶實際能夠得到的性能(performance)與生產力(productivity)。
- 單一系統映像與帶寬、吞吐率的矛盾。
- 具有Petaflop/s計算能力和PB級存儲能力的大規模系統的SUMA問題。
- 對網絡計算與廣泛普及的支持(即面向網格的超級服務器)。
- 建立高性能計算機的等級,針對不同的用戶需求,提供不同等級的系統和服務。
Supercomputing 2003(SC2003)要點
SC的全稱是“ACM/IEEE超級計算與網絡國際會議及展覽”,是全球高性能計算和網絡最重要、最大的會議。SC2003於2003年11月在美國鳳凰城召開,吸引了7000多名註冊參會者、130個廠商展位、89個研究展位,1萬多平方米的展廳全部售出(尚有30多家單位沒有得到展位),空前火爆。
SC2003有很多特點,其中最突出的可能是Apple、微軟和Dell這些微機公司進入高性能市場,第一次參展並提供了大型展位。這標誌着高性能計算的日益普及。
第二個特點是存儲的重要性越加明顯。存儲技術與系統的報告與展位很多。明年的SC2004可能將改稱爲“超級計算、網絡與存儲國際會議及展覽”。
第三個特點是網格仍然很熱,很多報告和一半以上的展位都與網格相關。
第四個特點是可重構計算技術的內容比2002年大大增加(如SGI的工作)。
第四個特點是新型體系結構的報告增多。我的印象最深的是Cray公司Burton Smith講的Cascade,從總體結構、芯片、節點(locale)、系統軟件、編程語言都有創新。Larry Smarr領頭的Optiputer項目也很有意思,2003年IEEE Computer有一個專輯介紹。
其他的內容基本延續2002年。廠家推出了性能更好、價格更低的機器、軟件、節點、網絡(如10G以太網、10G Infiniband)等,也有很多應用內容。
中國第一次派出代表隊參會並參展,同時舉行了爲期一天的“中國高性能計算與網格研討會”。該研討會共有約40名來自美國、日本和歐洲的註冊參加者,其中美國政府界人士佔三分之一、公司(如Cray、Intel、Platform、Sun、IDG)佔三分之一、學術界同行佔三分之一。美國政府界人士來自國務院、國家科學基金會(NSF)、國防部(DoD)、國家安全署(NSA)、能源部(DoE)和一些美國政府的Think Tank。
本次研討會由美國ATIP公司和中科院計算所聯合主辦。本來希望有20名中國代表赴會。由於大部分人都沒有得到簽證,最後只有中科院計算所的樊建平、許魯、劉淘英、廖華明、徐志偉5人蔘加。我們介紹了科技部863計劃支持的“中國國家網格”、中國網格論壇、教育部網格、863支持的網絡存儲技術、科技部和其他部門支持的網格應用等研究工作和活動。徐志偉還向NSF和DoD人士瞭解了Cyberinfrastructure、高性能計算復興計劃和DARPA的HPCS計劃。
ATIP認爲研討會很成功。會後,SC 2004組織者希望從中國科學家中推薦特邀講者。
革命性體系結構及系統部件技術
美國國家科學基金會和NITRD認爲,高性能計算機正處於重要的轉折期,因此在2001年開始啓動一系列項目,鼓勵“革命性體系結構概念”的研究,其中的一個重點就是如何用好摩爾定律帶來的硬件進步,提高計算機的效率(utilization)和生產力(productivity):
- 面向服務的或高生產力的高性能計算機體系結構、節點(或者叫其他名詞)、處理器芯片、系統軟件、編程語言
- 可信計算與自主計算(自律計算)技術
- 新型的通信技術和互聯技術(如光互聯、電容互聯)
- 可重構技術
這方面可能的重要創新是很多的,我們在DARPA的HPCS計劃中以可以看到一些端倪。比如Cray的Cascade高性能計算機計劃,提出了Chapel高級編程語言和包括locale、light-weight threads、smart memory、PIM in dada cache、UMA/NUMA混合模型等概念的新型的體系結構。
網格技術的研究開發態勢
美國國家科學基金會完成了Cyber infrastructure項目可行性報告,基本上確定了該項目的重要性和可行性,預計在2005年正式啓動,國家每年投資6-10億美元,網格和超級計算機將是核心部分。研究報告指出,政府需要支持Cyber infrastructure(尤其是其中的網格技術)的一個重要原因是:今後幾年迫切需要政府資助的、大體量的、非商業的研究工作,領導業界產生統一的技術標準(provide critical mass and leadership to form standards);不然的話,網格將被廠家利益左右,變得支離破碎,大大減弱Cyber infrastructure的能力。歐盟的相應計劃稱爲e-Infrastructure,在第六框架中已有體現。
歐洲國家從2001年正式啓動了網格研究的一系列項目。德國最晚,但也在2003年啓動了網格項目。其中英國的e-Science計劃較爲著名。英國政府非常重視網格技術的研究,他們認爲網格是World Wide Web的必然後繼者,投資2.4億英鎊左右支持網格研究項目(2001-2004,2003-2006兩期共5年,每期1.2億英鎊),其應用領域包括粒子物理、生物信息學、氣候環境變化、工程系統設計等多學科領域。
日本與韓國的網格計劃已經啓動,並各自成立了全國網格論壇。日本在2003年啓動了“國家研究網格”(政府投入100億日元,約1億美元)和“商務網格”(政府投資20億日元,企業配套佔大頭)。韓國的網格計劃之一是N*Grid,2002-2006的五年計劃將投資3500萬美元,但不包括網絡和高性能計算機的投入,後者每年投入爲1500萬美元。臺灣也啓動了“知識創新網格”的三年科研計劃(2003-2005),總投資爲3000萬美元。
網格軟件的研究開發早已不是停留在概念階段,在部分領域已經進入了開發實用生產型系統的階段。比如,美國的大銀行JP Morgan-Chase已與IBM、Platform簽約,開發實用的、具有業務整合、資源共享、協同工作特徵的銀行網格應用系統,該系統的一部分已經投入生產型運行。國內的網格研究可參看[8]。
英國e-Science網格
英國e-Science網格被認爲是最先進的網格結構,見圖11。可以看出,英國e-Science網格很重視數據。目前,上述體系結構還遠沒有實現。在2003年10月863網格專項總體組訪問英國e-Science時,其狀況如下(參見[1]):
- 應用主要集中在科學研究類應用;平均而言,每一個項目的人員投入(一般在20個工作人員左右)、工作時間、科學深度和實用水平比我國的應用項目要好。
- 整體結構還遠未調整成OGSA,但已有OGSA的初步共識。目前的狀況是:每個應用有一個portal入口,底層資源採用GT2、Condor、數據庫、文件、web service等形式(即我們稱之爲物理資源的形式),portal服務器端軟件直接調用物理資源。
- OGSA Platform層面的東西還很少,還沒有863 CNGrid的GOS系統。他們有一個已經開發了三年多的ICENE,類似我們的GOS系統,但還不是基於OGSA框架、OGSI或GT3。
- 值得我們學習和借鑑的成果包括:
- e-Science整體結構及研究的整體佈局和促進共識的交流方式(e-Science Institute、All Hands Meeting等)。
- 讓應用科學家與計算機科學家互相配合、協同工作。
- OGSA-DAI與網格操作系統ICENE。
- Imperial College郭毅可(Yike Guo)領導的Discovery Net,不僅已有很好的應用,而且在service composition方面有獨到之處(他們有十幾年基礎研究積累)。
圖11.英國e-Science網格體系結構[1, 3]
OGSA/OGSI/Globus
2002-2003年的一個重要進展是OGSA/OGSI/GT3的推出,包括OGSA體系結構框架、OGSI協議規範和GT3 beta代碼。在Foster和Kesselman的The Grid 2新書中,他們做了這樣的比喻:OGSI之於網格就像TCP/IP協議之於Internet。作者並不十分同意他們的這個比喻,我認爲還差一些基本的東西。
2002-2003年的另一個重要進展是網格的目的越來越清楚:metacomputing類應用不是網格的主流方向;網格主要是用來提供服務的。Carl Kesselman在2003年12月上海的GCC 2003會議上特別對此作了說明。
Globus團隊現在也改變了他們的定位(改變了說法):他們不再提Globus是標準。他們的新說法是:網格的標準是OGSA,Globus是一個被廣泛使用的OGSA參考實現。
目前,Globus Toolkit 3(GT3)只是實現到了OGSI層面,OGSA Platform層面的東西還很少。OGSA/OGSI團隊認爲,目前,grid service比web service有三個優點:dynamic service、stateful service、notification(events)。他們告訴作者,web service一定會在將來提供類似功能,而且比他們慢兩年。2004年1月,Globus團隊(The Globus Alliance)會同Akamai, HP, IBM, Sonic Software, TIBCO公司聯合提出了WS-Notification與WS-Resource Framework兩個web service規範,其目的是爲了在web service框架內提供對state和event的支持。
2004-2005年Globus的roadmap大體上分成兩個線索。一是沿着原來的GT2/GT3的GRAM往上走,逐步推出CAS、Index、WS-Agreement、WSDM等功能。另一個線索是數據,將以OGSA-DAI爲起點往上逐步推出OGSA數據服務。在學術思路上,他們下一步更強調service federation,看起來是比service composition更爲強有力的一個概念。
爲了達到上述目標,Globus團隊加強了聯盟工作。除了阿崗實驗室和南加州大學以外,2003年Globus團隊新增加了兩個研究組,即英國愛丁堡大學(主要做數據)和瑞典理工學院(主要做安全)。
網格面臨的挑戰
國外科技界(尤其是美國、歐洲、日本)的網格研究有一個共同點,即它們的主要應用是科學研究,主要目的是推動科學進步。迄今爲止,網格界的領頭團隊仍然是Globus團隊。這個團隊原來是做高性能計算應用出身的,對計算機系統經驗較少。因此,他們過去8年的研究軌跡是從metacomputing應用開始,經過Globus 2中間件,逐步轉到今天的面向服務的分佈式計算軟件體系結構。Globus團隊近3年的進步是很大的。他們領導產生的OGSA框架和OGSI協議是經過深思熟慮的產物,值得我們仔細學習和採用。但是,Globus團隊領頭的GGF近年來面臨四個挑戰。
第一,OGSA網格儘管已有IT界主要企業的參與和口頭上的支持(和研究型的支持),但這些公司並沒有全心把OGSA納入自己產品的主流。他們還在觀望。同時,IT界主要企業卻在大力開發web service產品和服務。當然,web service也在往OGSA網格方向靠,最終這兩者會融成一個東西(這也是IBM的官方觀點)。儘管OGSA/OGSI團隊認爲他們目前比web service領先兩年,但是web service最後覆蓋並淹沒OGSA網格是一個現實的危險。
反過來講,web service也有自己的麻煩。非技術因素已經越來越影響它的發展。目前,公司已經在大打標準戰,產業界已經有了四個與web service直接相關的標準化組織(W3C、OASIS、WS-I、Liberty Alliance)。目前的大致跡象是IBM與微軟結盟,聯手打其他廠家。這種早期的過分競爭可能造成產業的軍閥割據,最後反而給予OGSA網格發展的機會。
OGSA/OGSI團隊(尤其是Globus團隊)對上述危機認識很清楚。他們一方面利用國家和志願者的力量,走因特網路線,發展自己的技術和系統,影響產業;另一方面加強與公司的結盟。技術界爲了避開這些非技術障礙,最近有些人乾脆不提grid或web service,而是用service oriented這個共性詞來表述相關工作,出現了service-oriented computing、service-oriented architecture、service-oriented platform、service-oriented programming、service-oriented applications等詞語。
第二,Globus團隊還受到學術界的質疑,認爲他們做的東西主要是工程,缺乏研究,也缺乏顯示度的應用。甚至有人已經提出應該停止他們的研究經費。Globus團隊這個批評也認識很清楚。Globus核心團隊(阿崗與南加大)目前有一個近80名工作人員的隊伍,2004-2006三年有3000萬美元的研究經費,所以三年之內他們的工作資源是有保障的(正式人員工資不需要從項目經費中出)。作者認爲,對網格的健康發展,Globus團隊至關重要,我們應該全力支持他們,目前的最好做法是採用並推動OGSA,研究工作與OGSA互補。
第三,學術界和產業研究界並不懷疑網格的科學目標,也不懷疑Global Great Grid的遠景。但是,對如何達到這個目標(即approach)還沒有達成完全的共識,而是有各自的想法。比如,OGSA和web service是力量最大的兩個思路;英國學術界最近提出了Global Ubiquitous Computer的思想;IBM內部就在實踐三種不同的思路。
第四,學術界的網格研究可能被產業界超越。IBM已經決定傾全公司的力量實施e-Business On Demand的戰略(中文稱爲“電子商務隨需應變”,其核心技術就是網格),並把它作爲當年S/360系統那樣重要的創新。IBM高層對網格的理解無論在學術界還是產業界都是第一流的。他們認爲網格並不單單是一種技術,而是一種模式轉折,它的出現和流行是必然的,因爲它既符合摩爾定律等產業規律,又最符合廣泛普及階段的市場需求。
這當中值得網格研究者關注的產業研究開發工作就是微軟的.Net戰略實施。目前看來,儘管Longhorn/Blackomb進展有所延後,但微軟投入了2000名研究開發人員,其.Net戰略實施進程與其他公司相比是比較協調、比較快的。根據作者本人的瞭解和判斷,微軟的實施進程確實體現了重要的創新,.Net的操作系統將是繼DOS、Windows之後的一個大變革;微軟公司在2008-2014時段繼續壟斷軟件平臺市場是一個非常現實的可能場景。
網格的遠景和科學問題
在他1999年的圖靈獎獲獎演說中[5],Jim Gray指出了計算機的研究開發的三個主要脈絡,即巴貝奇問題(如何構造計算機系統)、布什問題(人機之間有什麼關係、如何使用計算機)以及圖靈問題(機器智能)。這三個問題互相影響,但各自仍有自己的發展脈絡。Jim Gray認爲,今後50年,計算機的研究開發仍然圍繞這三個問題,他還把它們細化爲12個技術難題。粗略地講,今天計算所的系統結構室、智能中心、工程中心、網絡室主要研究巴貝奇問題,數字化室等的人機接口工作主要研究布什問題,開放室主要研究圖靈問題。
自Vannervar Bush在1945年發表“As We May Think”的經典文章後,布什問題的一個里程碑發生在1960年,利克萊德(J.C.R. Licklider)在IRE Transactions on Human Factors in Electronics雜誌上發表了“Man-Computer Symbiosis”(人機共生)的論文[6],重點研究了人與電腦的關係,即“電腦的使用模式”的科學問題,得出了“人機共生”的insight,引導了交互式計算技術。利克萊德的思想和洞察力直接影響了電腦界其後40年的發展。比如,PARC的Alto微機將人機共生細化爲人機交互,不是一人多機(分時),而是一人一機,從而發明了PC。爲了解決交互難題,Alto將大部分(有人說達90%)資源用於屏幕顯示。
我認爲,今天是提出布什問題的一個新的metaphor的時候了,而且這個新的metaphor(新思想)就是“人機社會”。我有三個理由。第一,近幾年來,計算所的各個課題組收集了很多零散雜亂的市場需求和用戶需求,這些需求必須轉換成爲一套系統的、共性的科學問題和領悟,纔能有效地加以研究和利用,從而沉澱核心技術。“人機社會”看起來是一個好的共性抽象。第二,“人機社會”能夠爲計算所的基礎研究提供一個好的共性學科方向。第三,利克萊德提出“人機共生”思想已過去了43年,人類逐漸進入了網絡計算時代,“人機社會”的思想是“人機共生”的自然進化,能夠較好地概括新時代的科學問題。
“人機社會”的全稱是“人與計算機組成的開放社會”(an open society of people and computers)。實際上,人機社會還包括自然界,這三個世界組成數字社會,見圖8。在這個由人、機、物理世界組成的動態開放的三元社會中,我們如何設計和運行“機”這個虛擬空間,以支持數字社會的有效使用、協調發展,就是人機社會的根本問題。
“人機社會”不僅代表了網絡計算的科學問題,也代表了一種解決這些問題的模式(paradigm)和領悟(insight),稱爲“社會計算”(society computing)或“社區計算”(community computing)。歸結起來,人機社會在系統、界面和評價標準三個方面有六個特點,也就是與人機共生的六大區別,即多人多機(people and computers)、開放社會(open society)、深度交互(sophisticated interaction)、3A使用(any place, any time, and on any device)、以及全生命週期高生產率服務(full lifecycle high productivity services)。詳情見[15]。
對如何實現“人機社會”的遠景,學術界和產業界並沒有統一的思路。對於網格的研究,比較突出的有四種技術路線:
- 解決方案法。爲用戶提供一個(專用的)網格解決方案,不管底層用何種技術。這是目前最常用的方法。
- 平臺方法,又分爲三種:
- 中間件法。提供一個傳統意義上的網格中間件,網格服務請求通過中間件訪問網格資源。
- 網絡法。將網格看成一個網絡,使用Internet和Web的思路發展網格軟件,重點在協議。這是Globus的主要思路之一。
- 計算機系統法。將網格看成一個計算機系統,使用計算機體系結構的思路發展網格軟件和硬件,重點在地址空間、操作系統、進程、和編程語言等體系結構的實體。這是織女星網格系統平臺的主要思路[18]。
中國市場的新動向
近年來,中國市場出現了一些新動向,爲高性能計算機和網格的研究開發提供了機會。在電力、通信、交通、製造業、電子商務、數字圖書館等行業,我們已經瞭解到實實在在的下述需求。用戶對網格和服務化的思路也很熱情。
- 用戶希望“跨越發展”,而不是跟蹤。“美國的今天就是我們的明天”已不成立。用戶尤其希望避免重複發達國家的彎路。跨越的最重要的原因是降低成本、降低使用難度。
- 中國用戶的需求並不比發達國家低。那種將國外技術引進回來,根據國內經費情況裁減到二分之一乃至十分之一的簡單粗暴做法會越來越沒有市場。用戶希望使用創新技術降低成本,同時並不降低需求。這種創新技術不是剛剛發明的,而是已經有積累和實踐檢驗的(有些用戶將此種創新技術稱爲“成熟的先進技術”)。
- 用戶對購買成本(purchase cost)仍然很敏感,但已經越來越意識到運行、維護成本等TCO的重要性。
- 除了功能和性能方面的優勢以外,用戶關心的競爭點包括:
- 大規模
- 可擴展
- 動態
- 易管理
- 易使用
- 低成本
- 高密度(低空間要求)
- 低功耗(包括低散熱要求)
- 一針見血、簡明扼要、同時又很科學的表述很重要。這常常要求有一個可測試、可演示的概念原型系統。對整個計算所而言,我們需要低成本的、可及時按需重構的演示系統,即demonstration of future on demand, at low cost。這可以大大降低我們與用戶交流的成本,提高成果轉化的效率。
對計算所的啓示
國內外市場和同行的經驗給我們下列啓示: - 今後幾年正是高性能計算機和網格技術突破性創新的好時機。我們應該勇於創新,利用IT的發展規律,抓住paradigm shifts帶來的機遇,以高生產率的創新技術滿足中國市場需求。這當中的一個關鍵是必須儘早推出可運行的實用系統,並且自己要使用。利用VIG項目的契機,實現Vega on Vega,從而使我們團隊living in the market, living in the future。同時要重視分析與評價工作,避免“重發明、輕發現”。曙光機的研製可考慮採用“面向網格的第三代機羣”的技術路線。
- 儘量早地集聚臨界體量。辦法包括(1)儘量使用國際標準技術,比如,近期應使用OGSI(WSRF),OGSA-DAI, GT3。(2)通過免費開放、開放源碼、網格公司、合作伙伴等形式儘早轉化成果。(3)實踐計算所科研的經緯原則,以系統帶技術,在堅持系統工程開發爲根本的同時,要集中核心技術的研發,形成具有國際影響潛力的技術沉澱(見圖12)。(4)各研究組要互補分工。比如:曙光機與藍鯨存儲的重點在對網格的支持;網格系統平臺不考慮語義和內容,信息網格考慮內容(和小部分語義),知識網格主要解決語義問題;服務網格的重點是服務聚合。
圖12. 織女星網格對計算所科研經緯原則的實踐
參考文獻
[1] M. Atkinson, UK e-Science & The National e-Science Centre, presentation to Chinese 863 delegation, Edinburg, U.K., October 2003.
[2] A.-L. Barabási, Linked, Penguin Group,
[3] I. Foster, C. Kesselman (Eds.), The Grid 2: Blueprint for a New Computing Infrastructure, Morgan Kaufmann Publishers,
[4] K. Hwang, Z. Xu, Scalable Parallel Computers: Technology, Architecture, Programming,
[5] Jim Gray, “What next?: A dozen information-technology research goals”, Journal of the ACM, Vol. 50, Issue 1, 2003, pp. 41 – 57.
[6] J.C.R. Licklider, “Man-Computer Symbiosis”, IRE Transactions on Human Factors in Electronics, 1960.
[7] Tsugio Makimoto(牧村次夫), “Towards the Second Digital Wave”, Sony CX-News, Vol. 33, August 2003.
[8] 孟丹客座主編,網格專輯,計算機研究與發展,第40卷,第12期,2003年12月。
[9] M. Seager, “Linux Clusters for Extremely Large Scientific Simulation”, Keynote speech at IEEE International Conference on Cluster Computing, Hong Kong, Dec. 2003.
[10] 徐志偉,“織女星網格的總體思路”,織女星網格文檔VGD-1,2001年11月3日,1-7頁。
[11] 徐志偉,“織女星網格:關鍵問題與設計原理”,織女星網格文檔VGD-2,2002年11月22日,1-40頁。
[12] 徐志偉,“關於VGUI與 GSML的若干註解”,織女星網格文檔 VGS-1,2002年6月5日,1-6頁。
[13] 徐志偉,“網格地址空間模型及其應用”,織女星網格文檔 VGS-2,2003年2月10日,1-8頁。
[14] 徐志偉,“網程:動機、需求與行爲”,織女星網格文檔VGS-3,2003年5月20日,1-13頁。
[15] 徐志偉,“初論人機社會:一種網絡計算模式”,織女星網格文檔VGS-4,2003年6月30日,1-14頁。
[16] 徐志偉,“關於網格社區的若干註記”,織女星網格文檔VGS-8,2003年9月30日,1-8頁。
[17] Z. Xu, W. Li, D. Liu, H. Yu, B. Li, “The GSML Tool Suite: A Supporting Environment for User-level Programming in Grids”, Proceedings of PDCAT 2003.
[18] Z. Xu, W. Li, “Vega Grid: A Computer Systems Approach to Grid Research”, Keynote speech paper at the Second International Workshop on Grid and Cooperative Computing (GCC 2003), Shanghai, China, Dec. 2003.