第2章 米国のハイエンドコンピューティング
研究開発動向2.1概況
昨年の報告書作成時には米国はニューエコノミーとし、未曾有の経済成長をうたい、クリントン政権は最後の仕事である2001年1月のFY2001 Economic Outlookでも過去の経済成長ぶりを誇った。
2001年1月21日より民主党クリントン大統領から共和党ブッシュ大統領に交代した。8年に続く民主党の政権とアメリカの好景気の重なり、景気低迷の始まりと共和党ブッシュ政権の始まりは過去の政策の大幅な見直しがあることが予想される。
ただ現時点ではこれの詳細はは分かっていない。ブッシュ大統領による米国大幅減税の影響はあるのか?商務省管轄のATP(Advanced Technical Program)は1994年に民主党政権下で発足し、今年共和党のブッシュ政権下で見直しが行われることになった。大統領の技術的諮問機関であるPITAC(President’s Information Technology Advisory Committee)に関しては2/11までの任期を6/1まで延ばしている。
米国競争力協議会(Council on Competitiveness)は先端技術に対する投資がまだまだ不十分であるという勧告を2001年2月ブッシュ大統領に対して行っている。
経済面では、米国の景気は2000年3月の株価のピーク以降、ハイテック企業の株式の低迷を受け2001年3月にはダウ平均はでは1万ドルを切り、ナスダックにおいてはピークの3分の1の1600ドルを低迷した。これはITを基調とする経済発展が過大期待から見直しモードに入ったのであろう。
2000年11月に米国ダラスで開催されたSC2000 High Performance Networking and Computingコンファレンスでの基調講演では2014年にペタフロップスを実現と予測した。この時の構成はかなりの超並列を想定しておりHTMTの構想は触れられていなかった。
超伝導関連の研究は多いが、まだ素子レベルのものが多くコンピュータ本体までの実用化には時間が掛かりそうである。
ペタフロップスを追求する、米国の最近の動向はあくまで高性能を追求する動きからGridに代表されるグローバルコンピューティングさらに既存のハードウェアコンポーネントを利用するワークステーションクラスタに流れはますます加速しているように見える。 TOP500を模したランキングTop500Clusterも計画されている。
ハードウェアの進歩に比べてそれを活用するソフトウェアの進歩が追いつかない。これはPCからHECCに渡って言えることであろう。2000年9月にはPITACは政府支援の研究成果をオープンソースにすることを勧めている。
翻って日本でも、2001年はハイテックバブルがはじけて全世界的株価低下を迎えている、米国景気低下の影響を受け株式市場はバブル以来の最安値日経平均12000円台を2001年3月に記録した。中長期的ゼロ金利政策が復活した。
以下、本章ではハイエンドコンピューティングの新しい流れを中心に概観する。主な情報は源は2000年11月に開催されたSC2000コンファレンス及び通称Blue Bookと呼ばれている大統領予算教書への科学技術に関する補足ドキュメント(Blue Book 2001)及びWebで公開されている情報をもとにした。
Blue Book 2001に関しては、下記サイトを参照されたい。(過去の分もある。)
英語原本:http://www.itrd.gov/home.html
日本語訳:http://www.icot.or.jp/FTS/Ronbun/Bluebook2001-J.PDF
米国のハイエンドコンピューティング開発の背景、経緯は過去4期に渡る当研究所の報告書(ペタフロップスマシン技術に関する調査研究、同U,同Vおよびハイエンドコンピューティング技術に関する調査研究T)にまとめられているのでこれを参照下さい。
報告書はいずれもAITECのホームページ(http://www.icot.or.jp/ )から参照可能。
2.2 Blue Book 2001にみる政府支援の研究開発
2.2.1 構成
今期のBlue Bookいつもより遅れて2000年9月に開示された。昨年のCICによる発行から、組織替えがありInteragency Working Group on IT R&D(関係省庁間情報技術R&Dに関するWG)からの発行となっている。
この情報から米国の国家支援研究プロジェクトは概観できるのでここで簡単にまとめておく。内容はコンポーネント毎に分けられており、昨年とほぼ同じ体裁を取るが詳細には一部変わっている。
2001年度の研究は次のプログラムコンポーネントに分類された。
(1) High End Computing and Computation (HECC)
- High End Computing Infrastructure and Application (HEC I&A)
現状で政府が利用するインフラとかアプリケーションを目的に比較的
近い将来。
- High End Computing Research and Development (HEC R&D)
ペタフロップスとか量子コンピュータを追い求める将来的な研究がターゲット
(2) Human Computer Interface and Information Management
昨年のHuman Centered Systemがこれに変わった。内容が追加されている。
(3) Large Scale Networking (LSN)
昨年と同じ分類。
(4) Software Design and Productivity
PITACの勧告を受けて、2001年度から新規コンポーネントとして追加された。
ソフトウエアの需要が開発能力を完全に上回っているのとソフトウエアの設計、維持管理の困難さ等の問題をいかに克服するかが研究される。
(5) High Confidence Software and System
これもPITACの勧告を反映して、昨年のHES(High Confidence System)にソフトウエアが明示的に追加された。
(6) Social, Economic and Workforce Implication of IT and IT Workforce Development
昨年のETHR(Education Training and Human Resourse)に当たるもの。範囲が広くなっている。の計6つの分類である。
本報告書が扱う範囲は、基本は(1)HECCの範囲であるが、これにはとらわれず副題でつけたように高性能プラットフォーム技術関連分野としている。
Blue Book2001のハイエンドコンピューティング部分に対しては内容を整理し一覧できるように付表4.1,4.2に纏めたので参照ください。テーマ、管轄省庁、内容等を簡潔に整理した。
以下に簡単にHECC研究開発の対象分野について概説する。2.2.2 High End Computing Infrastructure and Application (HEC I&A)
これは、既存の技術で実現可能なハイエンドコンピューティングの実現であり、政府機関の担当する分野で必要とされるもの。総数約20の項目が紹介されている。
(1)環境とツールの整備
ハイエンドコンピューティング(並列処理、数値解析、大規模データセット等)
環境を簡単に構築できるような、インフラストラクチャやツールキットの整備。
(2)モデリングツール
オブジェクト指向で再利用性に優れたモデリングツール、有限要素ソフトウェア等がある。
(3)アプリケーション
具体的な問題に対応するアプリケーションの研究開発で生物医学、航空宇宙応用化学、
量子物理学、気象等の分野を網羅している。2.2.3 High End Computing Research and Application (HEC R&D)
現在の技術では実現できない部分、研究開発であり、
(1)Teraフロップスを目指すHTMT
(2)Beowulfクラスタの次世代
(3)グローバルコンピューティング
Globus、Legion等
(4)さらに現在の技術では実現できない次世代コンピューティングの研究開発
量子コンピュータ、DNAストレージ、超伝導エレクトロニクス等14テーマの紹介があり10年先を目指す研究に力を入れているのが分かる。2.2.4 研究施設
HECCの研究はNSF, NASA, DOE, NIH, NOAA, EPA等の省庁にまたがり行われている。付表4.3に研究施設一覧をつけたので参照ください。
NSF支援のPACI(Partnership for Advance Computational Infrastructure)では各研究施設のコンピュータを接続し、全米規模のComputational Gridが構築され、共同運用が可能になっている。
イリノイ大学(UIUC)が中心のAlliance(National Computational Science Alliance)とサンディエゴ大学(UCSD)が纏めるNPACI(National Partnership for Advanced Computational Infrastructure)がある。2.2.5 HECCの予算規模
2001年度は2月に“A Blueprint for New Beginning”として予算概要が発表されたが詳細の枠組みがでていない。データは多少古いがBlueBook2001での情報でその規模をみると次のようになる。
2001年度の予算要求
単位:100万ドル
関係機関
(HECI&A)
(HEC R&D)
(HCI&IM)
(LSN)a
(SDP)
(HCSS)
(SEW)
合計b
合計
761.6
291.4
334.7
368.8
160.5
98.3
120.9
2,137
HECC関連であるHEC I&及びHEC R&Dは合計で1053Mドルであり、IT関連予算の約50%を占める。2002年度の詳細予算はまだ公開されていないが、ブッシュ政権になり、見直しが行われると思われる。各省庁毎の詳細は付表4.4を参照ください。
2.3新しい動向
ハイエンドコンピューティングを代表するASCIプロジェクトおよび今後の新しい流れと思われるものをあげる。
2.3.1 ASCIプロジェクト
現時点での世界最速のコンピュータはTOP500のサイトではベスト4までがASCIマシンである。付録4.5にTOP10までをあげた。No.1が本年度納入のWhiteで、さらにそれを上回るマシンの受注がきまった。(1)ASCI White
IBMがLaurence Livermore National Laboratoryに ASCI Whiteを納入、現時点で最速のコンピュータとなった。
スペックは下記
・プロセッサ:IBM Power Chip3 (8192個)
・速度:12.3 Tera Flops
・メモリ容量:6 Tera Bytes
・ディスク容量:160 Tera Bytes
・設置場所:DOEのLawrence Livermore National Laboratory
・目的:複雑な3次元シミュレーションを用い、核兵器の保管の安全性を実際の実験を行うことなく確かめる。
2001年中の完全インストールが計画されている。
参照サイト: http://www.llnl.gov/asci/news/white_news.html(2)ASCI“Q”
さらにDOEはCOMPAQ社にコードネームASCI“Q”を発注した。
スペックは次の通り。
・プロセッサ:COMPAQ アルファチップ(12,000個)
・速度:30 Tera Flops
・メモリ容量:12 Tera Bytes
・ディスク容量:600 Tera Bytes
・設置場所:DOEのLos Alamos National Laboratory
これはSC2000の展示でもモックアップが2カ所(COMPAQ社、Los Alamos National Laboratory)
に飾られていた。 最終完成は2002年予定。さらに将来的にはマシンを追加し、
100Tflopsを2004年を目指している。(3)ASCIのソフトウェア対応
ハードウェア高速化の華々しい話題に比し、ソフトウェアの情報があまり開示されていない、あるいは進歩があまり無いのであろうか?
超並列でプロセッサが1万個の規模になれば効率よいプログラムの開発は並大抵でないであろう。付録資料5.1の福井委員の報告によるとASCIの現在の並列処理の効率は1000プロセッサで10%から12%位。研究者はこのぐらい出ればいい方との感じを持っている。超並列ソフトウェアは今後ますます重要な分野となるであろう。2.3.2 ClusterとLinux
クラスタシステムへの加速が激しい、特に予算を確保が厳しい研究所ではPCを寄せ集めても構築可能なクラスタシステムに魅力を感じているようだ。
ネットワークもMirinet, Giganet等がDe-Facto標準化されコストが下がってきている。システム構築が一層容易になってきている。
SC2000展示でも多くのクラスタが出展され、ベンチャ企業を中心にマーケット拡大を狙っているのが伝わってくる。日本のRWCPが開発したクラスタシステムもSC2000会場には展示されており頑張っている。
BlueBook2001での紹介はBeowulfプロジェクトである。ここでの使用OSはRed Hat版のLinuxであり、すべての開発ライブラリ等はこの上に移行している。
Top500サイトもこの流れに、クラスタ用のランキングを準備している。
参照サイト:http://clusters.top500.org/2.3.3 グローバルコンピューティング
HTMTに代表される1台で高速化する手法も、かなり困難が伴いコスト的にも見合わないというのが色々見えてきており、こちらは世界のコンピュータをつないで使おうと言う発想からきている。Webがデータアクセスの世界では成功しているように、Computational Gridといって計算機の計算能力資源までも使おうというもの。
昨年のBlueBookでもGlobusが紹介されているが、2001BlueBookではGlobusのほかLegion、さらにACCESS DCが別に紹介されており、研究の盛り上がりがみられる。
2000年8月には横浜でInet200が開催され、その展示会場の目玉はGridのインターナショナル版のI-Gridであった。
(1)ACCESS DC (Alliance Center for Collaboration, Education, Science and Software)
ワシントンDCに最新鋭の設備を持つセンターを設置し、民間企業、教育機関、政府系機関の実践的導入教育の機会を提供している。2つのコンポーネントで構成される。
(a)Computational Grid
スーパーノードと呼ばれる高性能並列コンピュータのグループで構成されている。
大学、研究所のコンピュータが接続され大規模並列、並列ベクター、分散共用メモリ、共用メモリ対称型マルチプロセッサ、クラスタワークステーション等が含まれている。
(b)Access Grid
Gridユーザの大規模な遠隔会議、共同チームセッション、セミナー、講義、個別指導、トレーニング等の機能を提供している。デスクトップ対デスクトップではないグループ対グループのための各種装置を完備する最初のものである。
(2)Legion
オブジェクト指向のメタシステムソフトウェアであり、共同研究の為の共有仮想ワークスペースを提供する。数百万台の接続されたホストのデータ、物理的資源があたかも自分のマシンにあるかのようにアクセスできる。2.3.4 量子コンピューティング
まだ、汎用の量子コンピュータができるというところまではきていないが、半導体素子の限界が見えているだけに研究は進んでいる。Blue Bookでも昨年あたりからかなり紹介されており2001版では“量子コンピューティング”、“量子情報とコンピュテーション”、“アンサンブル量子コンピュータの磁気共鳴”等が紹介されている。
ビッグニュースはIBMが2000年8月に5量子ドットによる量子コンピュータの実験レベルに成功したと言う報道であろう。理論でしか無かったのが実験で確かめられたのは大きいと思う。研究の加速が期待できる。
SC2000展示会では、量子コンピュータの展示はほとんど無かった(パネルを1つみただけ)。まだまだ展示会で見せられるところにはきていない。2.3.5 ヒューマンゲノム解析
2001年2月には米国セレラ社及び国際ヒューマンゲノム計画チームは人間の遺伝子の塩基配列の解析結果を同時公開した。遺伝子の数は当初予想されていた10万個を下回る3から4万個であることがわかった。この数でできていることは思っていたより遺伝子の仕組みが複雑であると推定される。
具体的な成果データはセレラ社はサイエンス誌2001年2月16日号、国際チームはネイチャ誌2月15日号で公開された。
これからは遺伝子の本格的解析に向けて拍車がかかっている。
遺伝子解析には現在の最高速スーパーコンピュータでも足りないのでDOEのSandia研究所と米セレラ社、コンパック社は専用のスーパーコンピュータの開発に向け2001年1月共同研究提携をした。目標性能は100TeraFlopsである。