付属資料1
SC2000参加報告(その1)
―― SC2000 High Performance Networking and Computing ――報告者 福井 義成
ハイエンドコンピューティング技術調査ワーキンググループ(HECC‐WG)の活動の一環として、2000年11月4日〜10日に、米国テキサス州ダラスにて開催された“SC2000”に参加したので報告する。
この会議は、1988年のフロリダ州オーランドで最初に開催され、その後、毎年11月頃に米国で開催されている。今回は通算、13回目にあたる。この会議の履歴については、http://www.supercom.org/を参考にしていただきたい。
筆者は第1回目と第2回目(ネバダ州リノ)に参加した。今回は約10年ぶりの参加であり、昨年(SC99)からの変化については残念ながらわからなかった。ここでは全般的な報告ではなく、筆者の主観による報告とする。SC2000については全般的な報告は下記を参考にしていただきたい。
・小柳義夫先生(東大)のレポート
http://phase.hpcc.gr.jp/phase/tech_report/SC2000/oyanagi.txt
・Hokkeグループのレポート
http://phase.hpcc.gr.jp/phase/tech_report/SC2000/会議名:SC2000 - SC2000 High Performance Networking and Computing -
日 程:2000年11月5日〜11日
場 所:テキサス州ダラス
参加者:福井義成 若杉康仁
会場風景
1.概要
今回は、大規模な並列アプリケーションの状況調査を中心にした。そのため、講演の聴講と共にASCIを中心にした大規模な並列アプリケーションの関係者にコンタクトをとった。会議の前後に関連する研究機関等の訪問を行いたかったが、スケジュールの関係で断念した。
会場のDallas Convention Centerは非常に広く、SC2000で使用しているのは一部であった。第1回、第2回に比べて、Exhibitionが盛大になっていた。第1回などは講演会場のホテルのホールで、小規模なものであった。今回の展示では、IBM,SGI、COMPAQなどが、入口の近くで大々的に展示を行っていた。日本のメーカはややおとなしい感じであった。日本の研究機関ではRWCが広い場所を占めており、人数も多かった。IBMがPower4の試作機を展示していたのが、印象的であった。
IBMのPower4
10年前にもダラスで開催された並列・分散処理関係の会議(12月)に参加したが、その時の天候は非常に良く、日本の5月頃の感じであった。今回は非常に寒く、11月8日の夜には雪になってしまった。飛行機の中で着るために持っていったジャンバーを背広の上から着てちょうど良いくらいであった。
2.大規模アプリケーションの状況
会議の後、毎年、参加している方に話を伺ったところ、ASCIの状況は昨年とあまり変わっていなかったとのことであるが、現状、特に並列化の効率について調査した結果を報告する。
ASCIのアプリケーションは関係する3つの研究所で以下のように分担している。・Sandia
・AZTEC An iterative sparse linear solver package
・MPSALSA Massively Parallel Numerical Methods for Advanced Simulation of
Chemically Reacting Flows
・CUBIT Mesh Generation Research Project
・ALEGRA A Three-Dimensional, Multi-Material, Arbitrary-Lagrangian-Eulerian
Code for Solid Dynamics
・Computational Sciences, Computer Sciences, and Mathematics Center
・LLNL
・ASCI Turb strongly compressible three-dimensional hydrodynamic flows
・CASC high performance computing, computational physics, numerical
mathematics, and computer science
・MeshTV Scientific Visualization and Graphical Analysis Software
・Python Framework
・LANL
・Antero one-, two-, and three-dimensional unstructured mesh Arbitrary
Lagrange-Eulerian (ALE) full-physics code suitable for stockpile-relevant simulations
・Blanca Stockpile-relevent Caluclation
・Crestone 3-D codes to model and understand issues involved with stockpile aging
・Shavano nuclear device performance
・Telluride casting processes使用している言語・ツールはC++、F90、MPI、Pooma(Parallel Object Oriented Methods and Applications)とのことであった。
関係する講演を聞くと共に、知り合いに、大規模アプリケーションの関係者への紹介を依頼した。講演での発表等の上手くいった場合の性能ではなく、現実的な値を知りたいと色々な人に接触した。(1) SGIのBob Bishopの主催の夕食会。
出席者は、HPC関係の責任者が多かった。出席メンバーは下記の通りであった。Bill Feiereisen :NASA Ames Director NAS Division
Milt Halem :NASA Goddard Space Flight Center
Dona Crawford :Sandia National Laboratory
Ed Oliver :Department of Energy
Stephen Younger :Los Alamos National Laboratory
Andy Uraskie :Office Chief, HPC NSA
Cray Henry :DoD Modernization Office Office Chief, HPC
John Mulholland :Scientific Systems Analysis Communications Security Establishment
Carol Hopkins :Canadian Meteorological Centre
Frank Williams :University of Alaska Artic Region Super Computing Center
Professor Ron :UK Research Councils Technology Watch Panelこのメンバー及び元CRAYのDerek Robb(元ASCI Blue MountainのSGI側責任者、現在SGI)、David Slowinski(eの計算の世界記録保持者、元東大先端研、現在、IBM Watson Research Center ACTC)らに関係者を紹介してもらった。
(2) CaltechのShron Brunett
CaltechのShron BrunettにSimulation of Dynamic Response of Materialsの実行性能について、色々と質問した。ASCI Blue Mountainを使用しており、1,000プロセッサオーダーで10〜12%の効率とのことであった。(3) John Morrison(CCN Division Office Acting Division Director)
ACL(Advanced Computing Lab.)
アプリケーションの組織等について、話をしてもらった。実効効率の点では気候関係(Climate Systems)では大規模では7〜9%とのことであった。(4) IBM Geert Wenes:Consulting I/T Architect
1,000プロセッサで、実効効率10〜12%は悪くない。現実的には、大規模な計算は夜だけ実行しているので、あまり気にしていないとのことであった。(5) IBM John M. Levesque:Director ACTC Watson Res. Ctr.
行列計算のようにメモリーネックを回避できるアプリケーションでは、実効効率は、30〜40%出せるが、メモリーの比重が大きいアプリケーションでは、15〜30%でれば良いほうである。これ以外に、CRAY、IBM、SGIの製品計画をじっくり聞く機会(各々2〜3時間)があり、その時にも大規模計算の実効効率について聞いたが、知りたい回答は得られなかった。
3.まとめ
ASCIのアプリケーションの状態は昨年と大きな変化はなかったようである。現実的なアプリケーションの場合、1,000 CPU規模の並列化の効率は、10〜20%程度のもあるということである。並列化に向いた問題であれば、かなり良い効率を出すことも可能であるが、並列化に向かない問題であれば、10〜20%程度の場合もあることを認識する必要がある。十分に並列化費用をかけることができれば、効率をあげることは可能であるが、要はどこまでコストをかけられるかとうことである。
また、日本との違いで強く感じたことは、(1) 実際に大規模な環境で大規模な計算をやることが大切
(2) 各機関の間のコラボレーションが日本より出来ているであった。ASCIのRED, Blue Pacicic, blue Mountain, White, Qとどんなものであれ、実際に使えるものがあるとソフトの技術は進むという印象であった。