Quantcast
Channel: FOCUSスパコン利用案内
Viewing all 874 articles
Browse latest View live

【次回 2/2 開催】アクセスポイント神戸/FOCUSスパコンでのEnSight活用講習会

$
0
0

平成28年度 アクセスポイント神戸/FOCUSスパコンでのEnSight活用講習会

【主催】 公益財団法人 計算科学振興財団

【共催】 サイバネットシステム株式会社
    
【場所】 高度計算科学研究支援センター(計算科学センタービル)2F 実習室 アクセス
  

【日時】※講習時間は各回全て13時~17時 の4時間です。

 

  【第1回】 8月18日(木)

終了

  【第2回】 2月2日(木)

受付中

1/30 (月)10時受付締切

 

【概要】
 ポストプロセッサEnSightを利用して、計算結果を可視化する方法を学びます。
 OpenFOAM等の大規模並列計算の読込方法、バッチ処理とアニメーションの
 作成方法についても実習を織り交ぜて学習します。

 

【プログラム】

13:00-13:30   1.概要、基本操作の説明

13:30-14:20  2.サンプル演習(流体・衝突解析サンプルによる機能説明)

14:20-14:30        ~休憩~

14:20-14:40  3.大規模計算結果の並列読込方法

15:00-15:40   4.スクリプト処理の基本

15:40-15:50        ~休憩~

15:50-16:30  5.バッチ処理と画像出力、アニメーションの作成

16:30-17:00  6.質疑応答

 

【各プログラム概要】  

 1.概要、基本操作の説明(座学)

  EnSightの基本と、操作方法などを説明します。 また、EnSightで大規模データを処理する上で

   欠かせないプロセス構成とパイプラインの並列化について解説します。

 

 2.サンプル演習(流体・衝突解析サンプルによる機能説明)(実習)

   CFD、衝突解析結果のサンプルを通して、EnSightの基本的な操作方法を演習形式で学習します。

 

   2.1.流体解析結果の可視化

    コンター図

    等値面

     断面コンター図

    ベクトル図

    流線、パーティクルアニメーション

    プロット機能

    計算機機能

    アニメーション作成(共通)

 2.2.衝突解析結果の可視化

       変形図の表示

    基準点の追跡機能

    注釈の追加

    アニメーション作成(共通)

 

 3.大規模計算結果の並列読込方法(座学)

     OpenFOAM等のソルバーの大規模な計算結果を、

    EnSightの並列処理版で読み込むための方法をご紹介します。

 

 4.スクリプト処理の基本 (座学・実習)

    EnSightのスクリプト処理の基本を学習します。

    EnSightコマンド、Pythonによるスクリプトの作成と実行方法を

    実習形式で習得します。

 

 5.バッチ処理と画像出力、アニメーションの作成(座学・実習)

    処理スクリプトを利用してバッチ処理を行う方法を説明します。

    結果として出力された連番画像ファイルからアニメーションを作成する方法も

    ご紹介いたします。

 

   ※プログラムの進行状況により、当日若干の変更が加わる場合がございます。

 

【定員】 20名 (先着順)
 
【受講料】   無料

  

【受講申込方法】

平成28年度FOCUS主催講習会受講申込書兼承認通知書」をダウンロードし、必要事項を記入いただき、

電子メールにてお送りください。

 

 

【受講申込締切】講習会開催3業務日前AM10:00
  

【お問合せ】   業務運用グループ (unyo[at]j-focus.or.jp([at]を@に変更してください)) まで。



【次回 10/24 開催】  FOCUSスパコン利用講習会

【次回 11/16 開催】 「京」を中核とするHPCI活用を見据えたチューニング講習会

【次回 11/15 開催】 FOCUSスパコンでのGaussian 09利用講習会 

平成28年度 講習会スケジュール

$
0
0

平成28年度 講習会スケジュール

日付

 

講習会名

時間

主催

有料

  4月

18日

第1回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第1回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

19日

第1回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第1回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第1回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

21日

 

 公開ソフト講習会 2016年度 第1回 「XcalableMP」 13:00~17:00 AICS  

25日

第2回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第2回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

26日

第1回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

27日

 

 公開ソフト講習会 2016年度 第2回 「K MapReduce」

13:30~17:00

AICS

 

  5月

9日

第3回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第3回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

10日

第2回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第2回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第2回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

11日

 

 公開ソフト講習会 2016年度 第3回 「OACIS」(東京)

13:00~15:00

AICS

 

12日 第1回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS
13日    Abaqus無料体験セミナー 13:00~16:45

CAEソリューションズ

 
19日    【製品説明会】音響解析ソフトウェアAdvance/FrontNoise FOCUSスパコンを使ったハンズオンセミナー 10:00~17:30 アドバンスソフト  

23日

第4回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第4回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

26日

第2回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

  6月

3日    公開ソフト講習会 2016年度 第4回 「FFV-C+HPC/PF」 13:30~17:00 AICS  

13日

第5回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第5回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

14日

第3回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第3回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第3回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

15日

第1回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級単体CPUチューニング

10:00~11:30

FOCUS

 

第1回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級OpenMP編

12:30~15:00

FOCUS

 

第1回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級MPI編

15:00~17:30

FOCUS

 

16日  

 Winmostarを活用した量子化学/分子動力学/個体物理計算のハンズオン講習会

13:30~17:00 クロスアビリティ  

22日

 

 公開ソフト講習会 2016年度 第5回 「PMlib」

13:00~17:00

AICS

 

24日    SOLIDWORKS Plastics無料体験セミナー 10:00~12:30 CAEソリューションズ  
 SOLIDWORKS & SOLIDWORKS Simulation無料体験セミナー 13:00~17:00

27日

第6回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第6回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

28日

第3回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

  7月

1日    第7回 クラウドコンピュータ利用FrontFlow/blueの設計実務ハンズオントレーニング 10:00~17:25 東大生研  

6日

 

 公開ソフト講習会 2016年度 第6回 「FDPS初級」

13:00~17:00

AICS

 

7日    神戸シミュレーションステップアップセミナー(音響シミュレーション編) 13:00~17:30 神戸市  
8日    OpenFOAM基礎 10:00~17:00 CAEソリューションズ

11日

第7回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第7回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

12日

第4回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第4回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第4回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

13日

第2回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級単体CPUチューニング

10:00~11:30

FOCUS

 

第2回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級OpenMP編

12:30~15:00

FOCUS

 

第2回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級MPI編

15:00~17:30

FOCUS

 

14日 第2回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS

15日

   AMBER講習会(基礎編) 13:00~17:00 コンフレックス
20日 第1回  可視化ソフトウェアParaView利用講習会 13:00~17:00 FOCUS
22日    PyroSim・FDS体験セミナー~スーパーコンピュータを使ってFDSの可能性を広げる~ 10:00~17:00 CAEソリューションズ  

25日

第8回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第8回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

26日

第4回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

27日

 

 公開ソフト講習会 2016年度 第7回 「通信ライブラリファイルI/Oライブラリ」

13:30~17:00

AICS

 

28日    myPrestoを用いたMDとドッキングの連携計算実習会 13:00~17:00 バイオモデリングリサーチ  

  8月

1日    第10回先進科学技術活用力養成講座「FMO計算法:入門から創薬への応用まで」 (1日目) 10:00~17:00 神戸大学連携創造本部  
2日    第10回先進科学技術活用力養成講座「FMO計算法:入門から創薬への応用まで」 (2日目) 12:30~17:30 神戸大学連携創造本部  
5日    Femap無料体験セミナー 13:00~17:00 CAEソリューションズ  

8日

第1回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第9回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第9回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

9日

第5回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第5回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第5回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

10日

 

 公開ソフト講習会 2016年度 第8回 「FDPS 中級」

13:00~17:00

AICS

 

18日 第1回  アクセスポイント神戸/FOCUSスパコンでのEnSight活用講習会 13:00~17:00 FOCUS  
19日 第2回  可視化ソフトウェアParaView利用講習会 13:00~17:00 FOCUS
26日    Abaqus 無料体験セミナー 13:00~16:45 CAEソリューションズ  

29日

第2回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第10回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第10回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

30日

第5回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

 9月

2日    神戸シミュレーションステップアップセミナー(無料体験!FOCUSでSTAR-CCM+の計算を実行) 13:30~16:30 神戸市  
5日    SOLIDWORKS & SOLIDWORKS Simulation 無料体験セミナー 13:00~17:30 CAEソリューションズ  
6日  

 SOLIDWORKS Plastics無料体験セミナー ~設計者のためのプラスチック射出成形セミナー~ 

13:30~17:00 CAEソリューションズ  
7日  

 公開ソフト講習会 2016年度 第9回 「SCALE」

14:00~17:00 AICS  
9日 第3回  可視化ソフトウェアParaView利用講習会 13:00~17:00 FOCUS

12日

第3回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第11回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第11回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

13日

第6回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第6回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第6回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

15日

第3回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS
16日    神戸シミュレーションスクール2016(構造解析編) 第1回 10:00~17:00 神戸市
21日    神戸シミュレーションステップアップセミナー(機械設計者のための振動解析編) 13:00~17:30 神戸市  

26日

第4回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第12回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第12回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

27日

第6回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

29日    神戸シミュレーションスクール2016(構造解析編) 第2回 9:30~17:00 神戸市

  10月

5日

 

 公開ソフト講習会 2016年度 第10回 「京」でもPCでも使える!次世代可視化ソフトウェア「HIVE」初心者向け講習会

13:30~17:00

AICS

 

6日    神戸シミュレーションスクール2016(構造解析編) 第3回 9:30~17:00 神戸市

11日

第5回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第13回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第13回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

12日

第7回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第7回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第7回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

13日

第3回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級単体CPUチューニング

10:00~11:30

FOCUS

 

第3回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級OpenMP編

12:30~15:00

FOCUS

 

第3回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級MPI編

15:00~17:30

FOCUS

 

14日    CONFLEX&Gaussian講習会 13:00~17:00 コンフレックス
17日  

 TotalViewを使ったFOCUSスパコンでのデバッグ体験と「京」見学会

13:00~17:00 ローグウェーブソフトウェアジャパン  
18日    Winmostarを活用した量子化学/分子動力学/固体物理計算実習 13:30~17:00 クロスアビリティ  
19日    第1回目 「京」で使えるOSS! LAMMPS講習会初級編 13:30~16:30 AICS  
20日    神戸シミュレーションスクール2016(構造解析編) 第4回 9:30~17:00 神戸市

21日

   OpenFOAM 応用 10:00~17:00 CAEソリューションズ

24日

第6回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第14回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第14回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

25日

第7回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

 第4回    可視化ソフトウェアParaView利用講習会  13:00~17:00 FOCUS

26日

   LAMMPSの基礎的利用セミナー  13:00~17:10 兵庫県立大学  

 

 公開ソフト講習会 2016年度 第11回 「2D-DMRG」

14:00~17:30

AICS

 

 27日    公開ソフト講習会 2016年度 第12回 FFV-C+HPC/PF 13:30~17:00 AICS  
31日    Femap 無料体験セミナー 13:00~17:00 CAEソリューションズ  

  11月

2日    神戸シミュレーションステップアップセミナー(Additive Manufacturing(3Dプリンター)ソリューション編) 13:00~17:30 神戸市  
4日    神戸シミュレーションスクール2016(構造解析編) 第5回 9:30~17:00 神戸市

9日

   第一原理計算セミナー”Advance/PHASEハンズオン” 10:00~17:00 アドバンスソフト  
 10日    神戸シミュレーションスクール2016(流体解析編) 第1回 10:00~17:00 神戸市

14日

第7回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第15回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第15回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

15日

第8回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第8回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第8回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

16日

第4回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級単体CPUチューニング

10:00~11:30

FOCUS

 

第4回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級OpenMP編

12:30~15:00

FOCUS

 

第4回

 「京」を中核とするHPCI活用を見据えたチューニング講習会初級MPI編

15:00~17:30

FOCUS

 

17日

第4回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS
18日    SOLIDWORKS SimulationとSIMULIAを利用した実験とCAE比較体験セミナー 13:30~17:00 CAEソリューションズ  
21日 第5回  可視化ソフトウェアParaView利用講習会 13:00~17:00 FOCUS
24日    SOLIDWORKS Plastics無料体験セミナー 13:00~17:00 CAEソリューションズ  
25日    SOLIDWORKS & SOLIDWORKS Simulation 無料体験セミナー 13:30~17:00 CAEソリューションズ  

28日

第8回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第16回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第16回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

29日

第8回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

30日

 

 公開ソフト講習会 2016年度 「KMATHLIB」

 

AICS

 

 12月

6日    創薬支援ソフトmyPrestoを用いた計算実習会(仮題) 13:00~17:00 バイオモデリングリサーチ  

7日

   LAMMPSでの仮想実験セミナー 13:00~17:20 兵庫県立大学  

 

 公開ソフト講習会 2016年度 「OACIS」(東京)

 

AP東京

 

8日    公開ソフト講習会 2016年度 「XCalableMP」   AICS  
9日 第6回  可視化ソフトウェアParaView利用講習会 13:00~17:00 FOCUS

12日

第9回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第17回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第17回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

13日

第9回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第9回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第9回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

15日    神戸シミュレーションスクール2016(流体解析編) 第2回 9:30~17:00 神戸市
16日    HELYX無料体験セミナー 13:30~17:00 CAEソリューションズ  
22日    神戸シミュレーションスクール2016(流体解析編) 第3回 9:30~17:00 神戸市

26日

第10回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第18回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第18回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

27日

第9回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

  1月

6日    神戸シミュレーションスクール2016(流体解析編) 第4回 9:30~17:00 神戸市

10日

第11回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第19回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第19回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

11日

第10回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第10回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第10回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

12日 第5回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS
13日    公開ソフト講習会 2016年度 「GENESIS」   AICS  
19日    神戸シミュレーションスクール2016(流体解析編) 第5回 9:30~17:00 神戸市

23日

第12回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第20回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第20回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

24日

第10回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

 2月

2日 第2回  アクセスポイント神戸/FOCUSスパコンでのEnSight活用講習会 13:00~17:00 FOCUS  

8日

 

 公開ソフト講習会 2016年度 「HIVE」

 

AICS

 

13日

第13回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第21回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第21回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

14日

第11回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第11回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第11回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

15日    Winmostarを活用した量子化学/分子動力学/固体物理計算実習 13:30~17:00 クロスアビリティ  
16日    第2回目 「京」で使えるOSS! LAMMPS講習会中級編 13:30~16:30 AICS  

22日

 

 公開ソフト講習会 2016年度 「通信ライブラリおよびファイルI/Oライブラリ」

 

AICS

 

27日

第14回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第22回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第22回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

28日

第11回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

  3月

2日    創薬支援ソフトmyPrestoを用いた計算実習会(仮題) 13:00~17:00 バイオモデリングリサーチ  

6日

第15回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第23回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第23回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

7日

第12回

 FOCUSスパコンでのGAMESS利用講習会

13:30~15:30

FOCUS

8日

 

 公開ソフト講習会 2016年度 「KMATHLIB」

 

AICS

 

13日

第16回  FOCUSスパコン利用のためのLinux初級講習会 10:30~12:00 FOCUS

第24回

 FOCUSスパコン利用講習会(基本コース)

13:00~15:00

FOCUS

 

第24回

 FOCUSスパコン利用講習会(応用コース)

15:00~16:30

FOCUS

 

14日

第12回

 HPCIアクセスポイント神戸利用講習会

11:00~12:00

FOCUS

 

第12回

 FOCUSスパコンでのGaussian 09利用講習会 (基本コース)

13:00~15:00

FOCUS

第12回

 FOCUSスパコンでのGaussian 09利用講習会 (応用コース)

15:00~17:00

FOCUS

16日 第6回  やっぱりスパコン用のプログラムはFortran?初級編 13:30~16:30 FOCUS
*スケジュールは変更になる場合があります。 
更新日2016.10 .06

PDFファイル

平成28年度 講習会カレンダー


1.FOCUSスパコンシステムの概要

$
0
0

目次 (1. FOCUSスパコンシステムの概要)

1.    FOCUSスパコンシステムの概要
1.1.   システム構成
1.1.1.  システム概要図
1.1.2.  システム構成要素の特徴
1.2.   ハードウェア構成
1.2.1.  サーバ
1.3.   ソフトウェア構成
1.3.1.  オペレーティングシステム(OS)
1.3.2.  ソフトウェア
1.3.3.  アプリケーション
1.3.3.1. ライセンスが必要なアプリケーション(商用・有償)
1.3.3.2. フリーソフトウェア
1.3.3.3. アプリケーションに関するサポート
1.4.   製品マニュアル
1.5.   ディレクトリ構成
1.5.1.  共用フロントエンドサーバ
1.5.2.  演算ノード

 

▲このページの先頭へ

1. FOCUSスパコンシステムの概要

 

1.1. システム構成

 

1.1.1. システム概要図

※高度計算科学研究支援センター外にクラウドストレージシステムがあり、フロントエンドサーバからアクセス可能です。

 

▲このページの先頭へ

1.1.2. システム構成要素の特徴

産業利用加速用計算機システムを構成する要素について、特徴は以下の通りです。

FOCUSスパコンシステムを構成する要素について、特徴は以下の通りです。

・ファイアウォール
インターネットからの不正アクセスを防ぎます。各種ポートを塞いだり一方通行にしたり等のアクセス制御を行います。

・ウェブサーバシステム
FOCUSスパコンシステムの利用に関する情報を提供します。運用情報や予約状況等を表示します。

・ログインサーバシステム
インターネットからのSSHプロトコルを使用したログイン接続、ファイル転送の中継を行います。この計算機に一旦ログインしてから再度、フロントエンドサーバシステムにSSHでログイン、ファイル転送を行います。

・フロントエンドサーバシステム
FOCUSスパコンシステムを利用するための拠点となります。プロジェクト毎の専用のファイルシステムがマウントされ、利用者がログインし、プログラムの開発、ジョブ管理システムの利用、小規模な解析・デバッグ、小規模なプリポスト処理等を行います。

共用フロントエンドサーバの利用については 「2.1.1.3.共用フロントエンドサーバへの接続」に記載の 【共用フロントエンド利用についての注意点】をご確認ください。

・Aシステム  ノード間高並列演算指向
ノード内12コアを利用した共有メモリ並列から、Infiniband-QDR(40Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Bシステム  プリポスト・大容量メモリ処理用
大容量共有メモリ(512GB)を備え、入力データを作成したり、計算した結果をディスク上から大規模共有メモリに読込んで高速にポスト処理を行ったりするためのシステムです。ノード内に16コアを備えております。

・Cシステム  ノード内並列専用
通信ネットワークを除いて性能はAシステムと同等です。ノード間はGigabit Ethernetで接続されています。このためノード内並列に利用頂けます。

・Dシステム  ノード内並列/ノード間高並列演算兼用
ノード内20コアを利用した共有メモリ並列から、Infiniband-FDR(56Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Eシステム  コプロセッサ搭載システム
インテル製 「Xeon Phi 5110P」(1基あたり60コア)をノード1台あたり4基(60×4=240コア)、合計192基を搭載しております。ノード内20コアを利用した共有メモリ並列から、Infiniband-FDR(56Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Gシステム  コプロセッサ搭載システム
インテル製 「Xeon Phi 5110P」(1基あたり60コア)をノード1台あたり1基搭載しております。ノード内12コアを利用した共有メモリ並列から、Gigabit Ethernet (10Gbps) で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・NASストレージシステム ホーム領域(/home1)
物理容量は360TBです。
/home1としてマウントされております。ユーザーのホーム領域として課題毎に200GBの利用が可能です。通信帯域は全体で500MB/sです。通信帯域はFOCUSスパコン全利用者にて共有しているため、I/O性能は自身も含めた全ユーザのI/O状況に依存します。

・大容量分散高速ストレージシステム ホーム兼ワーク領域(/home2)
物理容量は1640TBです。
/home2としてマウントされています。ユーザのホーム兼ワーク領域となり、利用には追加契約が必要となります。月単位・10GB単位で容量を追加/削減することが可能です。契約容量を削減し、実利用量が契約容量を上回っている場合は利用分課金されます(10GB単位)のでご留意ください。通信帯域は全体で11GB/s、プロセスあたり最大1GB/sです。分散ファイルシステムであり、上記NASストレージシステムと比べて22倍、後述クラウドストレージシステムの1100倍の通信帯域となっておりますので、大規模並列計算の複数プロセスによるI/Oに適しております。

・クラウドストレージシステム バックアップ・アーカイブ領域(/cloud1)
FOCUSスパコンが設置された計算科学センタービル(日本データセンター協会 データセンターファシリティスタンダード ティア1)から専用線で接続された日本国内のデーターセンター(ティア3)に設置されたクラウドストレージが /cloud1としてマウントされています。
/home1や/home2のバックアップ・アーカイブ領域となり、利用には追加契約が必要です。 月単位・10GB単位で容量を追加することが可能です。通信帯域は全体で10MB/s です。通信帯域は FOCUS スパコン全利用者にて共有しているため、I/O 性能は自身も含めた全利用者の I/O 状況に依存します。 /home2のデータをバックアップするときは性能差が3桁あることをよく認識して ご利用ください。なお、通信帯域は別契約で年単位にて課題専用に増やすことが可能です。
また、クラウドストレージサービス提供元と契約することでクラウドストレージを利用者のサイトと接続することも可能です。その際はFOCUSスパコンがメンテナンス中でもクラウドストレージのデータにアクセスすることが可能です。

▲このページの先頭へ

1.2. ハードウェア構成

1.2.1. サーバ

・Aシステム

ハードウェア 富士通 BX922 S2
CPU Intel Xeon L5640(2.26GHz) ×2CPU(計12コア)/ノード
メモリ 48 GB/ノード
インタフェース Infiniband-QDR(40Gbps)×1/ノード
ターボブースト ON

・Bシステム

ハードウェア 富士通製RX600 S5
CPU Intel Xeon E7520(1.86GHz) ×4CPU(計16コア)/ノード
メモリ 512 GB/ノード
インタフェース Infiniband-QDR(40Gbps)×1/ノード
ターボブースト 未対応

・Cシステム

ハードウェア 富士通製CX122S1
CPU Intel Xeon L5640(2.26GHz)×2CPU(計12コア)/ノード
メモリ 48 GB/ノード
ターボブースト ON

・Dシステム

ハードウェア Cray H2312WFFKR (HPC専用 2Uラックマウント型 ブレードサーバ)
CPU Intel Xeon E5-2670 v2 (2.5GHz) ×2CPU(計20コア)/ノード
メモリ 64 GB/ノード
インターフェース Infiniband-FDR(56Gbps)×1/ノード
ターボブースト ON

・Eシステム

ハードウェア Cray GreenBlade GB824X (HPC専用 ブレード型サーバ)
CPU Intel Xeon E5-2670 v2 (2.5GHz) ×2CPU(計20コア)/ノード
コプロセッサ Intel Xeon Phi 5110P ×4基(計240コア)/ノード
メモリ 128 GB/ノード
インターフェース Infiniband-FDR(56Gbps)×1/ノード
ターボブースト ON

・Gシステム

ハードウェア NEC Express5800/HR120a-1
CPU Intel Xeon E5-2640 (2.5GHz) ×2CPU(計12コア)/ノード
コプロセッサ Intel Xeon Phi 5110P ×1基(計 60コア)/ノード
メモリ 64 GB/ノード
ターボブースト ON

・共用フロントエンドサーバ

ハードウェア Intel R2308GZ4GC (HPC専用 2Uラックマウント型サーバ)
CPU Intel Xeon E5-2680 v2 (2.8GHz) ×2CPU(計20コア)/ノード
コプロセッサ Intel Xeon Phi 5110P x 1基(計60コア)/ノード
メモリ 64 GB/ノード

・インターネット高速転送サーバ
 IBM Sytem x3550M4で構成され、ハードウェアをログインサーバと共用します。

・ログインサーバ
 IBM System x3550M4 2ノードによる構成です。うち一台は、インターネット高速転送サーバとハードウェアを共用します。

 

 

▲このページの先頭へ

1.3. ソフトウェア構成

1.3.1. オペレーティングシステム(OS)

各システムで採用するオペレーティングシステム(OS)を示します。

表 1.3.1 オペレーティングシステム(OS)

システム名 オペレーティングシステム(OS)
ログインサーバ CentOS 6.6(64bit版)
共用フロントエンドサーバ Red Hat Enterprise Linux 6.6(64bit版)
演算ノード CentOS 6.6(64bit版)

 

▲このページの先頭へ

1.3.2. ソフトウェア

FOCUSスパコンシステムで利用可能な主なソフトウェアの一覧を示します。

表 1.3.2 ソフトウェア一覧

ソフトウェア フロントエンドサーバ 演算ノード
ジョブスケジューラ
Slurm Workload Manager 15.08.8
開発環境(コンパイラ)
インテル(R) Cluster Studio XE 2013 SP1
インテル(R) Cluster Studio XE 2013 SP1 Updae 2
インテル(R) Parallel Studio XE 2015 Cluster Edition Update 1
インテル(R) Cluster Studio XE 2016 Cluster Edition Update 2
GNU 4.4.7
GNU 4.8.2
ソフトウェア
Java SDK 1.7.0_45
Emacs 23.1.1
vim 7.2
OpenMPI 1.4.2
OpenMPI 1.6.5
MPICH2 1.4.1p1
OpenMX 3.7.6
GAMESS 201310
ABINIT-MP 4.1
ABINIT-MP 6.0
ABINIT-MP 7.0
NAMD 2.9
GROMACS 4.6.5
LAMMPS 28Jun14
Quantum ESPRESSO 5.0.2
OpenFOAM 2.1.x
OpenFOAM 2.2.2
OpenFOAM 2.3.0
OpenFOAM Ext 1.6
ParaView 4.0.1
gnuplot 4.6.4
Octave 3.6.4
Pov-Ray 3.6.1
R 3.0.2
GLview 20131211
AutoDock Vina 1.1.2
NTChem 2013 4.0
GNU Scientific Library 1.16
cmake 2.8.12
Python 2.7.6
Python 3.3.3
FDPS 1.0

 

▲このページの先頭へ

1.3.3. アプリケーション

/home1/share/にインストールしたアプリケーション、数値計算ライブラリ等はご自由に利用ください。FOCUSスパコン上で動作検証済みの商用・有償アプリケーション(Gaussian、MIZHO/BioStation、ParallelCONFLEX 以外)は、ソフトウェアベンダーからライセンスを取得して頂きまして利用頂けます。その他フリーソフト等、各利用者がホームディレクトリ配下に独自にインストールしたものが利用可能です。
 

1.3.3.1.ライセンスが必要なアプリケーション(商用・有償)

a)コンパイラ
 Intelコンパイラは、導入済みのライセンスがありますので、使用していただくことができます。 (ただしまれに同時にご使用の方が多いタイミングで、導入しておりますライセンス数を越えてしまい、ご使用のためのライセンスがありませんというエラーが出ることがありますが、そのような場合はしばらく時間を置いてご利用下さい。)

b)Gaussian、MIZUHO/BioStation, ParallelCONFLEX
 Gaussian、MIZUHO/BioStation や ParallelCONFLEX をFOCUSスパコンで利用する場合は、ライセンスを準備する必要はありませんが、演算ノードの利用料とは別にノード時間に応じて利用料がかかります。これらアプリケーションの利用を希望するユーザは、OKBiz( https://secure.okbiz.okwave.jp/focus/ )より利用希望する旨連絡してください。

c)上記以外の商用・有償ソフトウェア
 上記以外の商用・有償ソフトウェアをFOCUSスパコンで利用する場合は、各アプリケーションのベンダーに問い合わせて下さい。(FOCUSスパコンに未導入の商用ソフトウェアを利用されたい場合は、各ソフトウェアベンダーにFOCUSスパコンで使用したいとご相談下さい。)
 

▲このページの先頭へ

1.3.3.2.フリーソフトウェア

/home1/shareにインストールされているアプリケーション、ライブラリ等は自由に使っていただくことができます。しかしながら当該アプリケーションのご利用にあたってはFOCUSによるサポートはありません。
利用者あるいはグループとしてFOCUSスパコンに未導入のフリーソフトウェアを利用されたい場合は、各アカウントのホームディレクトリやグループ共用のホーム領域(/home1/グループ名/share)に自由にインストールして利用して頂いてかまいません。基本的にFOCUSからのサポートはありません。
 

▲このページの先頭へ

1.3.3.3.アプリケーションに関するサポート

FOCUSスパコンに導入した商用ソフトウェアのサポートは各ソフトウェアベンダーが行っており、以下のサポートサービスが提供されております。

 FOCUSスパコンに導入された商用ソフトウェアのサポートは各ソフトウェアベンダーが行います。 ソフトウェアベンダーのサポート以外に、現在、以下のサポートサービスが提供されております。

     ・OpenFOAM利用サポートサービス:(株)CAEソリューションズ
     ・Gaussian/GaussView/GAMESS/AMBER/CONFLEX利用サポートサービス:コンフレックス(株)

 


その他、ISV事業者により様々なサポートが準備されており、ご紹介が可能です。紹介をご希望の方はOKBiz(https://secure.OKBiz.okwave.jp/focus/)でお問合せ下さい。
 

▲このページの先頭へ

1.4. 製品マニュアル

センターのネットワーク内で、製品マニュアルを閲覧できます。下記のURLからアクセスしてご覧ください。

  〔URL〕http://fl01.j-focus.jp/ablog/manual/

表 1.4 マニュアル一覧

関連製品名 マニュアル名称 形式
インテル® Cluster Studio XE 2013 インテル Cluster Studio XE リリースノート PDF  
インテル Visual Fortran Composer XE 2013 入門ガイド PDF  
インテル Parallel Studio XE 2013 入門ガイド PDF  
インテル® Cluster Studio XE 関連ドキュメント コンパイラー OpenMP 入門 PDF  
インテル CilkPlus ユーザーズガイド PDF  
OpenMP 3.0 C/C++構文の概要 PDF  
インテル OpenMP 互換ライブラリー 利用ガイド PDF  
コンパイラー最適化 クイック・リファレンス・ガイド PDF  
SP1Update1リリースノート PDF  
インテル® C++ Composer XE 2013 Linux 版 インテル C/C++ コンパイラー OpenMP 活用ガイド PDF  
日本語ユーザー・リファレンス・ガイド PDF  
インテル® Fortran Composer XE 2013 Linux 版 インテル Fortran コンパイラー OpenMP 活用ガイド PDF  
日本語ユーザー・リファレンス・ガイド PDF  
インテル Fortran ライブラリー・リファレンス PDF  
インテル® MPI ライブラリー Intel MPI 入門ガイド PDF  
インテル® Inspector XE チュートリアル-メモリーエラーを検出する(C++) PDF  
チュートリアル-メモリーエラーを検出する(Fortran) PDF  
チュートリアル-スレッド化エラーを検出する(C++) PDF  
チュートリアル-スレッド化エラーを検出する(Fortran) PDF  
インテル® MKL MKL ユーザーズガイド PDF  
入門チュートリアル C++ 言語向け PDF  
入門チュートリアル Fortran 言語向け PDF  
インテル® VTune Amplifier XE チュートリアル-hotspotを見つける(C++) PDF  
チュートリアル-hotspotを見つける(Fortran) PDF  
チュートリアル-ハードウェアの問題を特定する PDF  
チュートリアル-ロックと待機を解析する PDF  
SLURM 2.6.2 SLURM 2.6.2 Documentation HTML  
Gaussian09 Gaussian 09 User's Reference HTML  
IOps Reference HTML  
電子構造論による化学の探究 製本  
Linda Using Gaussian 09 with Linda HTML  
GaussView GaussView 5 Reference PDF  

 

▲このページの先頭へ

1.5. ディレクトリ構成

ご利用の形態やソフトウェア、ジョブの特性によってディレクトリ(ストレージシステム)を使い分けていただくようお願い致します。

1.5.1.共用フロントエンドサーバ

 共用フロントエンドサーバのディレクトリ構成は下表のとおりです。

表1.5.1 ディレクトリ構成(共用フロントエンドサーバ)

ディレクトリパス 利用目的
/home1/グループ名/アカウント名 ホームディレクトリ
/home1/グループ名 グループ共用のホーム領域。容量は課題(グループ)あたり200GB
/home1/グループ名/share グループで共用するソフトウェアを格納するための領域
/home2/グループ名 グループ共用の追加ストレージ領域
/home1/グループ名/アカウント名/skeed
または
/home2/グループ名/アカウント名/skeed
インターネット高速転送システムでデータ授受を行う場合に使用。専用ソフトウェアでは”/”と表示される。
/home1/share システム全体で共用するソフトウェアを格納
/cloud1/グループ名 グループ共用のバックアップ・アーカイブ領域。

※グループ名は「g」+“課題ID”、アカウント名は「u」+“課題名”+数字4桁です。
 

(参考)
/home1 NASストレージシステム(書込み性能 全体で500MB/s)
/home2 分散ファイルシステム(書込み性能 全体で11GB/s、1プロセスあたり最大1GB/s)
/cloud1 クラウドストレージシステム(通信帯域 全体で10MB/s)

▲このページの先頭へ

1.5.2.演算ノード

 演算ノードのディレクトリ構成は下表のとおりです。

表1.5.2 ディレクトリ構成(演算ノード)

ディレクトリパス 利用目的
/work スクラッチディレクトリ(演算ノードのローカルディスク)

※演算ノードにログインすることはありません。
 

(参考)/workの書込み性能は各システムにより異なります。
実測値は付録A「スパコンシステム各種サーバ及びファイルシステム構成図」をご参照ください。

▲このページの先頭へ


PDF版 端末利用室利用の手引き

$
0
0

↑ここをクリックしてください。


【次回 11/29 開催】 FOCUSスパコンでのGAMESS利用講習会

$
0
0

平成28年度 FOCUSスパコンでのGAMESS利用講習会

【主催】 公益財団法人 計算科学振興財団(FOCUS)
     
【場所】 高度計算科学研究支援センター(計算科学センタービル)2F アクセス
  

【日時】 ※講習時間は各回全て13時半~15時半の2時間です。

 

 

【第1回】 4月26日(火)

終了

【第2回】 5月26日(木)

終了

【第3回】 6月28日(火)

終了

【第4回】 7月26日(火)

終了

【第5回】 8月30日(火)

終了

【第6回】 9月27日(火)

終了

【第7回】 10月25日(火)

受付終了

【第8回】 11月29日(火)

受付中

11/24(木)10時受付締切

【第9回】 12月27日(火)

受付中

12/21(木)10時受付締切

【第10回】 1月24日(水)

 

【第11回】 2月28日(火)

 

【第12回】  3月 7日(火)

 

 

※上記の定期開催日以外でも、ご希望の日程にて、受講が可能です。

業務運用グループまでお問い合わせください。

  

 

【概要】
 FOCUSスパコンを実際に利用しながら、より少ない計算時間で正しいGAMESSの計算結果を得るためのノウハウを身につけていただくことを目的とします。
 

【プログラム】
0. SLURMを利用したGAMESSの実行方法
1. ノード内並列の効率的実行方法
2. SCF が収束しない場合の対処法
3. 構造最適化が収束しない場合の対処法
4. 質疑応答

 

【定員】 10名

【受講料】
       賛助会員 10,800円 (税込)
        一般     21,600円 (税込)
      ※ 受講料は、講習会終了後に請求書をお送りいたします。
        指定の口座に振込みをお願いいたします。
  

  

【受講申込方法】

平成28年度FOCUS主催講習会受講申込書兼承認通知書」をダウンロードし、必要事項を記入いただき、

電子メールにてお送りください。

  

☆申込にあたっての留意事項☆ 

※FOCUSスパコンの利用については、日本国政府等が定める「輸出貿易管理令」等により、

スーパーコンピュータ利用の制限が適用されない人員かつ日本国内の居住者のみが利用資格を持ちます。

FOCUSスパコンアカウントをお持ちでない方は、「居住者確認」(申込書にチェックを入れてください。)を行い、

運転免許書、旅券等の身分証明書の写しをご提出ください。

 

※詳細は下記の規程、約款をご参照下さい。

FOCUSスパコン講習会用アカウント利用規程

公益財団法人計算科学振興財団スーパーコンピュータシステム利用契約約款

  
 

【受講申込締切】 講習会開催3業務日前 AM10:00
  

【お問合せ】   業務運用グループ (unyo[at]j-focus.or.jp([at]を@に変更してください)) まで。



【11/21 開催】可視化ソフトウェアParaView利用講習会

$
0
0

平成28年度 可視化ソフトウェアParaView利用講習会

【主催】 公益財団法人 計算科学振興財団

【後援】 アドバンスソフト株式会社
    
【場所】 高度計算科学研究支援センター(計算科学センタービル)2F 実習室 アクセス
  

【日時】 講習時間は各回全て13時~17時の4時間です。

 

  7月20日(水)

終了

   8月19日(金)

終了

   9月 9日(金)

終了

  10月 25日(火)

受付終了

 11月 21日(月)

受付中

11/16 (水)10時受付締切

  12月 9日(金)

受付中

12/6 (火)10時受付締切

 1月 16日(月)

受付中

1/11 (水)10時受付締切

※各日程、同じ講習内容となっております。

 

 

【概要】
 オープンソースソフトウェアのParaViewを利用して、構造解析、流体解析、音響解析の結果を可視化する
 方法を実習形式で学びます。
 これから使ってみようという方、使いこなすための情報が不足していて困っている方は受講をご検討ください。
 また、FOCUSスパコンで計算するような大規模な結果を可視化する方法についてもご紹介します。

 

【プログラム】

13:00-13:30  1.概要説明、一通りの操作方法の説明

13:30-14:40 2.解析結果をもとに可視化機能の紹介(流体、構造、音響)

14:40-15:00  ~休憩~

15:00-15:30 3.代表的なソースおよびフィルターの使い方

15:30-16:00 4.スクリプト、マクロ機能の活用

16:00-16:30 5.ParaViewのクライアントサーバーでの利用方法

16:30-17:00 6.各自応用問題の取り組み、質疑応答

 
 

【各プログラム概要】   「可視化ソフトウェアParaView利用講習会」実習概要資料

1.概要説明、一通りの操作方法の説明(座学)

   ParaViewの入力画面や使用できるファイル形式、ParaViewファイルの保存方法などの概要を説明します。

 

2.解析結果をもとに可視化機能の紹介(流体、構造、音響)(実習)

   FEM解析やCFD解析など、ParaViewを使用されるお客様の用途は様々です。

   ここでは、代表的な結果の表示方法を実習していただくことにより、解析の種類によらず使用できるポスト処理の

  手順を学習していただきます。

 

 2.1.構造解析結果の可視化

       コンター図出力

       変形図の表示

 

 2.2.流体解析結果の可視化

      ベクトル図の表示方法

      流線ベクトルの表示方法

      断面図の描画方法

      線分上の値のプロット

      等値面の描画方法

 

 2.3.音響解析結果の可視化

       連続ファイルの読み込みについて

       Calculatorの使い方

       注釈時間フィルターの使い方

       アニメーションの作成方法

 

3.代表的なソースおよびフィルターの使い方(座学・実習)

      ParaViewには、より高度なポスト処理を実現するための様々な機能が含まれております。

      ここでは、その一部をご紹介させていただきます。

 

4.スクリプト、マクロ機能の活用(実習)

      ParaViewのTrace機能をやバッチで処理する方法を学習していただきます。

 

5.ParaViewのクライアントサーバーでの利用方法(実習)

    ParaViewではクライアントサーバーの設定を行うことにより、 計算機で計算した結果ファイルを移動することなく、

  手元のパソコンでポスト処理を実施することが可能です。

     ここでは、FOCUSをサーバーとしてポスト処理を行う方法をご紹介します。

 

    ※プログラムの進行状況により、当日若干の変更が加わる場合がございます。

    ※ParaView Ver5.0を使用します。

 

【定員】 20名 (先着順)
 
【受講料】    FOCUSスパコンユーザ   32,400円 (税込)
          一般                    64,800円 (税込)
      ※ 受講料は、講習会終了後に請求書をお送りいたします。
        指定の口座に振込みをお願いいたします。 

  

【受講申込方法】

平成28年度FOCUS主催講習会受講申込書兼承認通知書」をダウンロードし、必要事項を記入いただき、

電子メールにてお送りください。

  

☆申込にあたっての留意事項☆ 

※FOCUSスパコンの利用については、日本国政府等が定める「輸出貿易管理令」等により、

スーパーコンピュータ利用の制限が適用されない人員かつ日本国内の居住者のみが利用資格を持ちます。

FOCUSスパコンアカウントをお持ちでない方は、「居住者確認」(申込書にチェックを入れてください。)を行い、

運転免許書、旅券等の身分証明書の写しをご提出ください。

 

※詳細は下記の規程、約款をご参照下さい。

FOCUSスパコン講習会用アカウント利用規程

公益財団法人計算科学振興財団スーパーコンピュータシステム利用契約約款

  
 

【受講申込締切】 講習会開催3業務日前 AM10:00
  

【お問合せ】   業務運用グループ(unyo[at]j-focus.or.jp([at]を@に変更してください))まで。


4.2.ジョブの実行方法(SLURMコマンド編)

$
0
0

目次 (4.2.ジョブの実行方法(SLURMコマンド編))

4.2.   ジョブの実行方法(SLURMコマンド編)
4.2.1.  ジョブ投入コマンド(sbatch)
4.2.2.  ジョブ情報表示コマンド(squeue)
4.2.3.  ジョブのキャンセルコマンド(scancel)
4.2.4.  ジョブステータス情報表示コマンド(sstat)
4.2.5.  実行ジョブ情報表示コマンド(sacct)

 

▲このページの先頭へ

4.2.ジョブの実行方法(SLURMコマンド編)

 ジョブを実行するには、フロントエンドサーバからコマンドを実行します。
 ジョブ管理のためのコマンドは次のとおりです。

表4.2 ジョブ管理コマンド一覧(SLURMコマンド編)

コマンド コマンド用途 手順
sinfo -s キュー(パーティション)の情報を表示する 4.1.2.キュー情報の確認方法
squeues キューのノード実行状況を表示する
freenodes 空ノード数を表示する 4.1.3. 利用可能なノード数の確認方法
sbatch ジョブを投入する 4.2.1.ジョブ投入コマンド(sbatch)
squeue ジョブの状態を表示する 4.2.2.ジョブ情報表示コマンド(squeue)
scancel ジョブをキャンセルする 4.2.3.ジョブのキャンセルマンド(scancel)

 

▲このページの先頭へ

4.2.1.ジョブ投入コマンド(sbatch)

ジョブを実行するために、ジョブ投入スクリプトを事前に作成します。sbatchコマンドにジョブ投入スクリプトを指定することで、ジョブがキューイングされ実行されます。
【sbatchコマンドの書式】

$ sbatch ジョブ投入スクリプト

注)bsubと異なり、リダイレクトではなく、引数でジョブ投入スクリプトを渡します。

【sbatchコマンドの例(スクリプトファイルがrun.shの場合)】

$ sbatch run.sh

ジョブ投入コマンド(sbatch)について、以下に主なオプションを示します。
表 4.2.1 sbatchオプション

オプション 概要
sbatch -J "sample job name" ジョブに任意のジョブ名をつけます。
sbatch -p キュー名 指定したキュー名のキュー(パーティション)にジョブを投入します。
sbatch -N ノード数 ノード数を指定します。
sbatch -n プロセス数 ジョブ全体でのプロセス数を指定します。
sbatch -o ./out_%j.log(※) out_ジョブIDという名前のファイルに標準出力を出力します。-eオプションが指定されていない場合は、標準エラー出力もこのファイルに出力されます。
sbatch -e ./err_%j.log(※) err_ジョブIDという名前のファイルに標準エラー出力を出力します。
※シンボル「%j」はジョブIDに置換されます。

 

▲このページの先頭へ

4.2.2.ジョブ情報表示コマンド(squeue)

ジョブの各種情報を表示するときは、squeueコマンドを実行します。

$ squeue

注)他の利用者の情報は表示されません。

【squeueコマンド例】

$ squeue
JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON)
xxxx d024h testrun u***0001 R 4:58 60 d[007-066]
xxxx g024h testrun u***0001 CG 0:39 1 g001

<出力説明>

JOBID ジョブに割り当てられたジョブIDが表示されます。
ジョブの削除(scancel)などで指定する識別子となります。
PARTITION ジョブを投入したキューの名前を表示します。
NAME ジョブ名(未指定の場合はコマンド文字列)を表示します。
USER ジョブ投入リクエスト(ジョブ)の実行者を表示します。
ST ジョブの状態を表示します。主なジョブの状態を以下の表に示します。
TIME ジョブの実行時間(形式:days-hh:mm:ss)
NODES ジョブ実行に使用されるノード数
NODELIST(REASON) ジョブが実行されるホスト名のリスト (ジョブ状態に対する理由があれば表示されます)
ジョブ状態がPD(PENDING)の場合のREASONを下記に示します。
  (Resources) リソースが利用可能になるのを待っています。
  (Priority) パーティション内の優先度の高いジョブが完了するのを待っています。
  (Dependency) このジョブが依存する他のジョブが完了するのを待っています。
  (InvalidQOS) Resources と同義です。

表 4.2.2 ジョブ状態(squeueコマンド-STフィールド)

状態 説明
CA (CANCELLED) ジョブが明示的にユーザまたはシステム管理者によってキャンセルされました。
CD (COMPLETED) ジョブは、すべてのノード上のすべてのプロセスを終了しました。
CF (CONFIGURING) ジョブは、資源が割り当てられた後、資源が使える状態になるのを待っている状態です。
CG (COMPLETING) ジョブは、終了手続きの過程にあります。
F (FAILED) ジョブは、ゼロ以外の終了コードまたはその他の障害状態で終了しました。
NF (NODE_FAIL) ジョブは、割り当てられたノードのいずれかの故障のために終了しました。
PD (PENDING) ジョブは、資源の割り当てを待っています。保留中です。
PR (PREEMPTED) ジョブが中断のために終了しました。
R (RUNNING) ジョブは、現在実行中です。
S (SUSPENDED) ジョブは、資源の割り当てを持っています(実行が中断されています)。
TO (TIMEOUT) ジョブは、その制限時間に達して終了しました。

 

▲このページの先頭へ

4.2.3.ジョブのキャンセルマンド(scancel)

ジョブをキャンセルするにはscancelコマンドを用います。squeueコマンドなどで確認したジョブIDを指定します。scancelの後に、ジョブIDをスペース区切りで指定すると、複数のジョブを一度にキャンセルすることができます。

$ scancel ジョブID ジョブID ジョブID

 

▲このページの先頭へ

4.2.4.ジョブステータス情報表示コマンド(sstat)

ジョブの各種情報(メモリ使用量やディスクI/O量など)を表示するときは、sstatコマンドを実行します。ジョブを実行中に実行する必要があります。

$ sstat –j ジョブID[.ステップID] [-o 項目[,項目]]        

注)他の利用者の情報は表示されません。

 

ジョブが使用中のメモリ量につきましては、下記のコマンドで確認いただけます。

$ sstat –j ジョブID[.ステップID] -o JobID,MaxVMSize,MaxRSS    

注)他の利用者の情報は表示されません。

 

・ステップID は squeue -s コマンドで確認することができます。
・ステップID は省略可能ですが、逐次処理の場合はステップID として「batch」を指定します。
・仮想メモリサイズは MaxVMSize、物理メモリ消費サイズは MaxRSS を指定します。

 

ジョブステータス情報表示コマンド(sstat)について、以下に主なオプションを示します。

表 4.2.4 sstatオプション

オプション 概要
-j ジョブID[.ステップID] ジョブIDを指定します。必須のオプションです。ステップIDは省略可能です。
ステップIDはsqueue -sコマンドで確認することができます。
※逐次処理の場合はステップIDとして「batch」を指定します。
–o 項目[,項目]...
出力する項目をカンマ区切りで指定します。指定しない場合、全ての項目が表示されます。
一部、FOCUS環境では取得できない項目もあります。
 
出力項目例
JobID             ジョブに割り当てられたジョブIDが表示されます。
MaxVMSize   ジョブの全てのタスクでの仮想メモリサイズの最大値です。
MaxRSS        ジョブの全てのタスクでの物理メモリ消費サイズの最大値です。
 
-e -oオプションで指定できる項目を表示します。

 

【sstatコマンド例1】

$ sstat -j 45643 -o JobID,MaxVMSize,MaxRSS,MaxPages,MaxDiskRead,MaxDiskWrite
       JobID  MaxVMSize     MaxRSS MaxPages  MaxDiskRead MaxDiskWrite
------------ ---------- ---------- -------- ------------ ------------
45643.0        1332496K     39276K     293K           1M        0.29M

 

【sstatコマンド例2】

$ sstat -j 45638.0
       JobID  MaxVMSize  MaxVMSizeNode  MaxVMSizeTask  AveVMSize     MaxRSS MaxRSSNode MaxRSSTask     AveRSS MaxPages MaxPagesNode   MaxPagesTask   AvePages     MinCPU MinCPUNode MinCPUTask     AveCPU   NTasks AveCPUFreq ReqCPUFreq ConsumedEnergy  MaxDiskRead MaxDiskReadNode MaxDiskReadTask  AveDiskRead MaxDiskWrite MaxDiskWriteNode MaxDiskWriteTask AveDiskWrite
------------ ---------- -------------- -------------- ---------- ---------- ---------- ---------- ---------- -------- ------------ -------------- ---------- ---------- ---------- ---------- ---------- -------- ---------- ---------- -------------- ------------ --------------- --------------- ------------ ------------ ---------------- ---------------- ------------
45638.0        1579688K           g002              1    912640K     38696K       g002          1     26118K     279K         g002              1       214K  00:00.000       g001          0  00:00.000        2      2.50G                         0        0.96M            g002               1        0.68M        0.02M             g002                1        0.02M

<出力説明>

JOBID ジョブに割り当てられたジョブIDが表示されます。
MaxVMSize ジョブの全てのタスクでの仮想メモリサイズの最大値です。
MaxVMSizeNode MaxVMSizeが発生しているノードです。
MaxVMSizeTask MaxVMSizeが発生しているタスクのIDです。
AveVMSize ジョブの全てのタスクでの仮想メモリサイズの平均値です。
MaxRSS ジョブの全てのタスクでの物理メモリ消費サイズの最大値です。
MaxRSSNode MaxRSSが発生しているノードです。
MaxRSSTask MaxRSSが発生しているタスクのIDです。
AveRSS ジョブの全てのタスクの物理メモリ消費サイズの平均値です。
MaxPages ジョブの全てのタスクでのページフォールト数の最大値です。
MaxPagesNode MaxPagesが発生しているノードです。
MaxPagesTask MaxPagesが発生しているタスクのIDです。
AvePages ジョブの全てのタスクでのページフォールト数の平均値です。
MinCPU ジョブの全てのタスクでのCPU時間の最小値です。
MinCPUNode MinCPUが発生しているノードです。
MinCPUTask MinCPUが発生しているタスクのIDです。
AveCPU ジョブの全てのタスクでのCPU時間の平均値です。
NTasks ジョブまたはステップの中でのタスクの合計数です。
AveCPUFreq ジョブの全てのタスクでの重み付けをしたCPU周波数の平均値(kHz)です。
ReqCPUFreq ステップに要求されたCPU周波数(kHz)です。
ConsumedEnergy ジョブの全てのタスクでの消費エネルギー(ジュール)です。
MaxDiskRead ジョブの全てのタスクでの読み込み量の最大値(bytes)です。
MaxDiskReadNode MaxDiskReadが発生しているノードです。
MaxDiskReadTask MaxDiskReadが発生しているタスクのIDです。
AveDiskRead ジョブの全てのタスクでの読み込み量の平均値(bytes)です。
MaxDiskWrite ジョブの全てのタスクでの書き込み量の最大値(bytes)です。
MaxDiskWriteNode MaxDiskWriteが発生しているノードです。
MaxDiskWriteTask MaxDiskWriteが発生しているタスクのIDです。
AveDiskWrite ジョブの全てのタスクでの書き込み量の平均値(bytes)です。

 

▲このページの先頭へ

4.2.5.実行ジョブ情報表示コマンド(sacct)

実行が完了したジョブの情報を表示するにはsacct コマンドを用います。

$ sacct -j ジョブID -o 項目[,項目,...] –X

注)他の利用者の情報は表示されません。

 

実行が完了したジョブのメモリ量につきましては、下記のコマンドで確認いただけます。

$ sacct -j ジョブID -o JobID,MaxVMSize,MaxRSS

注)他の利用者の情報は表示されません。

 

sacct コマンドについて、以下に主なオプションを示します。

表 4.2.5 sacctオプション

オプション 概要
-j ジョブID ジョブIDを指定します。
–o 項目[,項目]...
出力する項目をカンマ区切りで指定します。指定しない場合、
  -o 'JobID,JobName,Partition,Account,AllocCPUS,State,ExitCode'
を指定した場合と同様の結果となります。
一部、FOCUS環境では取得できない項目もあります。
-e -oオプションで指定できる項目を表示します。
-X ジョブ情報のみ表示し、ステップ毎の情報は表示しません。
-S, --starttime 指定の日時以降の情報を表示します。指定しない場合当日の0:00 が設定されます。
-E, --endtime 指定の日時以前の情報を表示します。

 

【sacctコマンド例1】

$ sacct -j xxxxxx -o User,JobID,Partition,NNodes,Submit,Start,End,Elapsed,State -X
User JobID Partition NNodes Submit Start End Elapsed
State
--------- ------------ ---------- -------- ------------------- ------------------- ------------------- ---------- ----------
uxxx000X xxxxxx c006m 1 2015-11-10T09:24:27 2015-11-10T09:24:31 2015-11-10T09:24:35 00:00:04 COMPLETED

<出力説明>

User ジョブ投入リクエスト(ジョブ)の実行者が表示されます。
JobID ジョブに割り当てられたジョブID が表示されます。
Partition ジョブを投入したキューの名前が表示されます。
NNodes ジョブのノード数が表示されます。
Submit ジョブを投入した日時が表示されます。
Start ジョブの実行が開始した日時が表示されます。
End ジョブの実行が完了した日時が表示されます。
Elapsed ジョブの実行時間(形式:days-hh:mm:ss)
State ジョブの状態を表示します。

 

▲このページの先頭へ


H28年度FOCUSスパコンシステム期間占有ポリシー

付録A.FOCUSスパコンシステム各種サーバ・ストレージ概要

$
0
0

各領域の特性

ホーム領域 (/home1) :NASストレージシステム(全体で500MB/s)
ワーク兼ホーム領域 (/home2) :分散ファイルシステム(全体で11GB/s、プロセスあたり最大1GB/s)
演算ノードスクラッチ領域 (/work) :ローカルディスク
(I/O性能は各システムにより異なり、他のジョブの影響を受けない。)
ジョブ終了時にデータは削除される。
バックアップ・アーカイブ領域 (/cloud1) :外部ストレージシステム(全体で12MB/s)

 

 


目次(FOCUSスパコン利用の手引き)

$
0
0

1. FOCUSスパコンシステムの概要

1.    FOCUSスパコンシステムの概要
1.1.   システム構成
1.1.1.  システム概要図
1.1.2.  システム構成要素の特徴
1.2.   ハードウェア構成
1.2.1.  サーバ
1.3.   ソフトウェア構成
1.3.1.  オペレーティングシステム(OS)
1.3.2.  ソフトウェア
1.3.3.  アプリケーション
1.3.3.1. ライセンスが必要なアプリケーション(商用・有償)
1.3.3.2. フリーソフトウェア
1.3.3.3. アプリケーションに関するサポート
1.4.   製品マニュアル
1.5.   ディレクトリ構成
1.5.1.  共用フロントエンドサーバ
1.5.2.  演算ノード
 

▲このページの先頭へ

2. システムの利用方法

2.    システムの利用方法
2.1.   システムへのログイン
2.1.1.  インターネットからのSSH接続によるログイン
2.1.1.1. 事前準備(秘密鍵・公開鍵の作成と登録)
2.1.1.2. ログインサーバへのSSH接続
2.1.1.3. 共用フロントエンドサーバへの接続
2.1.1.4. SCPファイル転送
         ①事前準備(秘密鍵の変換)
         ②SCPによるファイル転送(WinSCP使用)
2.1.1.5. X Window Systemを利用するアプリケーションの使用方法(Windows環境)
2.1.1.6. インターネットからのSSH多段接続によるログイン方法
         ・proxy設定によるSSH多段接続の設定方法
         ・Tera Termマクロ を使ったSSH多段接続の設定方法
         ・SCPによるファイル転送(インターネットからのSSH多段接続)
2.1.2.  インターネットからのSSL-VPN接続による利用方法
2.1.2.1. SSL-VPN接続によるログイン
2.1.2.2. SSL-VPN接続によるSCPファイル転送(WinSCP使用)
2.1.2.3. X Window Systemを利用するアプリケーションの使用
2.1.3.  高度計算科学研究支援センター内でのログイン方法
2.2.   パスワードの変更
2.2.1.  パスワードの変更(センター外)
2.2.2.  パスワードの変更(センター内)
2.3.   ログインシェル
2.4.   Lustre File System の利用方法
2.4.1.  Lustre File System 環境構成概要
2.4.2.  /home2利用状況の確認
2.4.3.  Stripe Size / Stripe Count
2.4.3.1. Stripe設定方法 (lfs setstripe)
2.4.3.2. Stripe確認方法 (lfs getstripe/lfs osts)
2.5.   クラウドストレージの利用方法
2.5.1.  クラウドストレージ(/cloud1)の追加
2.5.2.  /cloud1利用状況の確認
2.5.3.  クラウドストレージ(/cloud1)の容量減・削除
2.6.   改行コード
2.6.1.  改行コード
2.6.2.  エディタ
2.6.3.  改行コードの変換
2.7.   moduleコマンド

▲このページの先頭へ

3. コンパイラ、MPIの使用方法

3.    コンパイラ、MPIの使用方法
3.1.   Intel コンパイラ
3.1.1.  コンパイラ環境の設定(Intelコンパイラ)
3.1.2.  コンパイルコマンド(Intelコンパイラ)
3.1.3.  MPI環境の設定(Intelコンパイラ)
3.1.3.1. Open MPI 1.6.5
3.1.3.2. MPICH2 1.4.1p1
3.1.3.3. Intel MPI
3.1.4.  コンパイラ、MPI環境の切替え
3.1.5.  コンパイル・オプション(Intelコンパイラ)
3.1.6.  コンパイル方法(Intelコンパイラ)
3.1.6.1. 逐次プログラム
3.1.6.2. 自動並列プログラム
3.1.6.3. OpenMPプログラム
3.1.6.4. MPIプログラム(IntelMPI)
3.1.6.5. MPIプログラム(OpenMPI、MPICH2)
3.1.6.6. MKL(Math Kernel Library)
3.1.7.  コンパイル時の注意点
3.2.   GNUコンパイラ
3.2.1.  コンパイラ環境変数の設定(GNUコンパイラ)
3.2.2.  コンパイルコマンド(GNUコンパイラ)
3.2.3.  MPI環境変数の設定(GNUコンパイラ)
3.2.3.1. Open MPI 1.6.5
3.2.3.2. MPICH2 1.4.1p1
3.2.4.  コンパイラ、MPI環境の切替え
3.2.5.  コンパイル・オプション(GNUコンパイラ)
3.2.6.  コンパイル方法(GNUコンパイラ)
3.2.6.1. 逐次プログラム
3.2.6.2. OpenMPプログラム
3.2.6.3. MPIプログラム(OpenMPI、MPICH2、IntelMPI)

▲このページの先頭へ

4. プログラムの実行方法

4.    プログラムの実行方法
4.1.   キュー
4.1.1.  キューの一覧
4.1.2.  キュー情報の確認方法
4.1.3.  利用可能なノード数の確認方法
4.2.   ジョブの実行方法(SLURMコマンド編)
4.2.1.  ジョブ投入コマンド(sbatch)
4.2.2.  ジョブ情報表示コマンド(squeue)
4.2.3.  ジョブのキャンセルマンド(scancel)
4.2.4.  ジョブステータス情報表示コマンド(sstat)
4.2.5.  実行ジョブ情報表示コマンド(sacct)
4.3.   ジョブの実行方法(fjコマンド編)
4.3.1.  ジョブ投入コマンド(fjsub)
4.3.2.  ジョブ情報表示コマンド(fjstat)
4.3.3.  ジョブのキャンセルコマンド(fjdel)
4.4.   ジョブ投入スクリプトの作成
4.4.1.  処理方法の指定
4.4.2.  sbatchオプション
4.4.3.  環境変数
4.4.4.  逐次ジョブを実行する場合
4.4.5.  スレッド並列ジョブを実行する場合
4.4.6.  MPIプログラム(openMPI)を実行する場合
4.4.7.  MPIプログラム(Intel MPI)を実行する場合
4.4.8.  MPIプログラム(mpich2)を実行する場合
4.5.   Xeon Phi コプロセッサの使用
4.6.   課金確認コマンド
4.6.1.  プロジェクト単位従量課金確認コマンド thismonth
4.6.2.  利用者単位従量課金確認コマンド uacct
4.6.3.  利用者単位アプリケーション課金確認コマンド uacct_apl
4.6.4.  課金確認コマンドの情報反映タイミング
4.7.   実行ジョブ一覧の確認方法

▲このページの先頭へ

5. インターネット高速転送システムの使用方法

5.    インターネット高速転送システムの使用方法
5.1.   Skeed Silver Bullet の利用申請
5.2.   専用クライアント(SkeedSilverBullet GUI)の使用方法
5.2.1.  クライアントのインストール
5.2.2.  クライアントの環境設定
5.2.3.  クライアントの起動
5.2.4.  ファイルのアップロード
5.2.5.  ファイルのダウンロード
5.3.   Webブラウザベースの使用方法
5.3.1.  システムへのログイン
5.3.2.  ファイルのアップロード
5.3.3.  ファイルのダウンロード
5.3.4.  ファイルの削除
5.3.5.  Webブラウザーからの専用クライアント起動

▲このページの先頭へ

付録

付録A.FOCUSスパコンシステム各種サーバ・ストレージ概要
付録B.コマンド比較表(SLURMとLSF)
付録C.プログラムとジョブ投入スクリプトのサンプル

▲このページの先頭へ


2.1.システムへのログイン

$
0
0

目次 (2.1.システムへのログイン)

2.1.   システムへのログイン
2.1.1.  インターネットからのSSH接続によるログイン
2.1.1.1. 事前準備(秘密鍵・公開鍵の作成と登録)
2.1.1.2. ログインサーバへのSSH接続
2.1.1.3. 共用フロントエンドサーバへの接続
2.1.1.4. SCPファイル転送
         ①事前準備(秘密鍵の変換)
         ②SCPによるファイル転送(WinSCP使用)
2.1.1.5. X Window Systemを利用するアプリケーションの使用方法(Windows環境)
2.1.1.6. インターネットからのSSH多段接続によるログイン方法
         ・proxy設定によるSSH多段接続の設定方法
         ・Tera Termマクロ を使ったSSH多段接続の設定方法
         ・SCPによるファイル転送(インターネットからのSSH多段接続)
2.1.2.  インターネットからのSSL-VPN接続による利用方法
2.1.2.1. SSL-VPN接続によるログイン
2.1.2.2. SSL-VPN接続によるSCPファイル転送(WinSCP使用)
2.1.2.3. X Window Systemを利用するアプリケーションの使用
2.1.3.  高度計算科学研究支援センター内でのログイン方法

 

 

▲このページの先頭へ

2.1.システムへのログイン

インターネットから、FOCUSスパコンシステムにログインするには、SSH鍵交換による接続法とSSL-VPNによる接続法の2経路があります。接続サーバ名等は、「付録A.FOCUSスパコンシステム各種サーバ・ストレージ概要」をご参照ください。

以下では、ログインの詳細な方法を記述します。

2.1.1.インターネットからのSSH接続によるログイン

お手元のマシンがインターネットに対してSSH接続できる環境であれば、SSH接続によりセンター内のシステムにアクセスすることができます。
以下の『2.1.1.1 事前準備(秘密鍵・公開鍵の作成と登録)』を実施して、公開鍵の登録が完了した後、ログインサーバ経由で共用フロントエンドサーバに接続できます。
 

図2.1.1 SSH接続イメージ

お手元のマシン
(localhost)
→ インターネット → ログインサーバ
(ssh.j-focus.jp)
共用フロントエンドサーバ
(ff.j-focus.jp)

 

▲このページの先頭へ

2.1.1.1.事前準備(秘密鍵・公開鍵の作成と登録)

(1) スタートメニュー[すべてのプログラム]→[Tera Term]を順に選択します。
(2) Tera Term『新しい接続』画面で[キャンセル]ボタンをクリックします。
  (『新しい接続』画面を閉じます。)
(3) Tera Termメニュー[設定]→[SSH鍵生成]を順に選択します。

 


(4)『TTSSH: 鍵生成』画面で、鍵の種類「RSA」(RSA2)を選択し、[生成]ボタンをクリックします。
  (注)鍵の種類「RSA1、RSA、DSA」の中央に位置する“RSA”がRSA2です。

 


(5)「鍵のパスフレーズ」と「パスフレーズの確認」に同じフレーズを入力し、[公開鍵の保存]ボタンと[秘密鍵の保存]ボタンを押し、公開鍵と秘密鍵を保存します。

 


(6) OKBiz(https://secure.okbiz.okwave.jp/focus/)で公開鍵(id_rsa.pub)の登録を依頼します。
  ※ファイル名の初期値は次のとおりです。
   ・公開鍵:id_rsa.pub   ←OKBizに添付するのは“.pub”の方です。
   ・秘密鍵:id_rsa     ←お手元で管理してください(添付しないでください)。
  ※秘密鍵はSSH接続する際に使用します。
  ※秘密鍵はお手元で厳重に管理をお願いします(絶対に公開鍵と一緒に送付しないで下さい)。
  ※OKBizが使用不可の場合はメールで業務運用グループ unyo@j-focus.or.jpに送付してください。
 

▲このページの先頭へ

2.1.1.2.ログインサーバへのSSH接続

 前述の手順『2.1.1.1. 事前準備(秘密鍵・公開鍵の作成と登録)』で作成した秘密鍵を使って、インターネットからログインサーバに対してSSH接続を行います。SSH接続に関わる各種情報は次のとおりです。

接続先 ssh.j-focus.jp
サービス SSH
ポート番号 22
サービスバージョン SSH2
認証方式 公開鍵認証

ご使用の環境によってはプロキシを設定する必要があります。そのような場合は、ご所属のネットワーク管理者にご確認ください。
手順は次のとおりです。

(1) スタートメニュー[すべてのプログラム]→[Tera Term]を選択します。
(2) TeraTerm『新しい接続』画面で以下の指定を行い、[OK]ボタンを押します。

・ホスト名 ssh.j-focus.jp
・サービス SSH
TCPポート# 22
・SSHバージョン SSH2

 


(3) 『SSH認証』画面で以下の指定を行い、[OK]ボタンを押します。
 なお、セキュリティ警告ウィンドウが現れた場合は、[続行]ボタンを押します。

・ユーザ名 センターから発行されたアカウント名(「u」+“課題名”+数字4桁)
・パスフレーズ 公開鍵・秘密鍵を作成した際に指定したパスフレーズ
・RSA/DSA鍵を使う チェックを入れる
・秘密鍵 お手元のマシンに保存している秘密鍵ファイル

 


(4) プロンプト([アカウント名@login1~]$ もしくは[アカウント名@login2~]$)が表示されることを確認します。

 

▲このページの先頭へ

2.1.1.3.共用フロントエンドサーバへの接続

sshコマンドにより共用フロントエンドサーバff.j-focus.jp(ff)に接続します。

 

  【共用フロントエンド利用についての注意点】
  共用フロントエンド(ff01/ff02)上では、プログラムの開発、小規模な解析・デバッグ、
  小規模なプリポスト処理の実行が許可されます。
  ユーザーは下記の範囲での実行が可能です。
 
   ・CPU時間  1時間  (1時間で強制終了となります)
   ・プロセス数 1プロセス(並列実行、複数プロセスの起動は禁止です)
   ・利用メモリ 1GB程度 (小規模処理のみ許可)
 
  上記範囲を越える場合は、バッチ処理より演算ノード上でジョブを実行してください。
  または、専用フロントエンド(有償)の利用をご検討ください。
 
  ※専用フロントエンド上でのジョブ実行については、
   実行時間、数、規模の制限はありません。(別途、申請書の提出が必要です)
 

【ffへの接続】

ssh ff

 


なお、初回接続時は確認メッセージが表示されるので、「yes」を入力します。
 

また、異なるアカウント名で接続する場合は、sshコマンドの -lオプションを使ってアカウント名を指定します。

【ffへの接続(アカウント指定あり)】

ssh -l アカウント名 ff

 

▲このページの先頭へ

2.1.1.4.SCPファイル転送

インターネットからログインサーバに対して、SCPファイル転送を行います。事前準備として秘密鍵の変換操作が必要となりますので、次の①、②の順で操作を行います。
①事前準備(秘密鍵の変換)・・・ PuTTY Key Generator(PuTTYgen)使用
②SCPファイル転送・・・ WinSCP
 

 ホーム領域(/home1)は、ログインサーバと共用フロントエンドサーバが同じファイルシステムをマウントしているため、ファイルの転送操作はログインサーバに対してのみ実施します。

図2.1.1.4.1 ホーム領域(/home1)接続イメージ

お手元の
マシン
(localhost)
→→
SCP
インター
ネット
ログインサーバ
(ssh.j-focus.jp)
共用フロントエンド
サーバ
(ff.j-focus.jp)
→→→→→
(マウント)
ストレージ領域
/home1/グループ名
/home1/グループ名/アカウント名
/home1/グループ名/share
→→→→→→→→→→→→→→→
(マウント)

 

 追加ストレージ領域(/home2)は、初期状態では共用フロントエンドサーバのみがマウントしています。ログインサーバからのマウントには、ユーザ単位での申請が必要となります。

図2.1.1.4.2 追加ストレージ領域(/home2)接続イメージ

お手元の
マシン
(localhost)
→→
SCP
インター
ネット
ログインサーバ
(ssh.j-focus.jp)
共用フロントエンド
サーバ
(ff.j-focus.jp)
→→→→→
(マウント)
ストレージ領域
/home2/グループ名(追加契約時)
→→→→→→→→→→→→→→→
(マウントには申請が必要です)
 

なお、ご使用の環境によってはプロキシを設定する必要があります。そのような場合は、ご所属のネットワーク管理者にご確認ください。

 

①事前準備(秘密鍵の変換)

WinSCP用に秘密鍵をPuTTY形式に変換します。前述『2.1.1.1 事前準備(秘密鍵・公開鍵の作成と登録)』の手順で作成した秘密鍵(id_rsa)を使います。

(1) スタートメニュー[すべてのプログラム]→[WinSCP]→『ログイン - WinSCP』画面で[ツール]→[PuTTYgenを実行]を順に選択します。
  (PuTTY Key Generatorを起動します。)
 


(2) PuTTY Key Generatorメニュー[Conversions]→[Import Key]を順に選択します。
 


(3)前述『2.1.1.1 事前準備(秘密鍵・公開鍵の作成と登録)』の手順で作成した秘密鍵を選択します。
  ※Windows環境の画面例

 


(4) 公開鍵・秘密鍵を作成した際のパスフレーズを入力し、[OK]ボタンをクリックします。
 


(5) [Save private key]ボタンをクリックします(変換した鍵が保存されます)。
 

 

▲このページの先頭へ

②SCPによるファイル転送(WinSCP使用)

前述の手順『①事前準備(秘密鍵の変換)』でPuTTY形式に変換した秘密鍵を使用します。

(1)スタートメニュー[すべてのプログラム]→[WinSCP]を順に選択します。
(2)『ログイン - WinSCP』画面で[設定]ボタンをクリックします。
 


(3)『高度なサイトの設定』画面で[SSH]→[認証]を順に選択し、以下の指定を行ないます。

 

・秘密鍵 PuTTY形式に変換した秘密鍵(∼.ppk)

 



(4)『ログイン - WinSCP』画面に戻り以下の指定を行い、[ログイン]ボタンをクリックします。
 

・プロトコル SFTPまたはSCP
・ホスト名/TD> ssh.j-focus.jp
・ポート番号 22
・ユーザ名 アカウント名(「u」+“課題名”+数字4桁)
・パスワード 公開鍵・秘密鍵を作成した際のパスフレーズ

 


(3) 『警告』画面が表示された場合は内容を確認し、[はい]ボタンをクリックします。

 


(4) 公開鍵・秘密鍵を作成した際のパスフレーズを入力し、[OK]ボタンをクリックします。
 


(5) 以下のような画面が表示され、お手元のマシンとログインサーバ間でファイル転送が出来るようになります。
 

 

▲このページの先頭へ

2.1.1.5.X Window Systemを利用するアプリケーションの使用方法(Windows環境)

(1) お手元のマシン(localhost)にCygwin/X 、Xming等のXサーバソフトウェアをあらかじめインストールしておき、お手元のマシン(localhost)でXサーバを起動します。
(2) スタートメニュー[すべてのプログラム]→[Tera Term]を順に選択します。
(3) Tera Term『新しい接続』画面で[キャンセル]ボタンをクリックします。(『新しい接続』画面を閉じます。)
(4) Tera Termメニュー[設定]→[SSH転送]を選択します。

 


(5) [リモートの(X)アプリケーションをローカルのXサーバに表示する]にチェックを入れ、[OK]をクリックします。

 


(6) Tera Termメニュー[ファイル]→[新しい接続]を順にクリックします。
  (『新しい接続』画面を開きます。)

 


(7) ログインサーバにSSH接続します。(参照:『2.1.1.2 ログインサーバへのSSH接続』)
(8) ログインサーバから共用フロントエンドサーバ(ff01またはff02)にssh接続する際に、
  -X (大文字エックス)オプションを付けます。
 

ssh -X ff

 


(9) 以上で、X Window Systemを利用するアプリケーションをお手元のマシンで利用出来るようになります。
 

 

▲このページの先頭へ

2.1.1.6.インターネットからのSSH多段接続によるログイン方法


前述2.1.1ではお手元のマシン(localhost)からログインサーバに接続し、そこから共用フロントエンドサーバに接続する方法を示しました。本節では、SSH多段接続によりlocalhostから直接フロントエンドサーバにログインする方法について示します。
 

・proxy設定によるSSH多段接続の設定方法

 cygwin(Windows環境), MacOS X, Linux等のlocalhostで、$HOME/.ssh/config ファイルを以下のように設定します。ログインする共用フロントエンドサーバはff01.j-focus.jp、アカウント名はuser0001の場合の設定例になります。

【$HOME/.ssh/config 設定例】

 

Host FocusLogin #
HostName ssh.j-focus.jp # フロントエンドサーバの設定
User user0001 # アカウント名
Port 22 # ポート番号
IdentityFile ~/id_rsa # 秘密鍵の保管場所

Host ff01Focus
HostName ff01.j-focus.jp # ホストの指定
User user0001 #
ProxyCommand ssh FocusLogin nc %h %p #

configファイルでの設定終了後、フロントエンドへの接続を実行します。

【多段SSH接続実行例】

[localhost] $ ssh ff01Focus
Enter passphrase for key '~/id_rsa': ←公開鍵・秘密鍵のパスフレーズ
user0001@ff01's password: ←サーバログイン用のアカウントパスワードを入力
Last login: Wed Aug 29 14:05:10 2013 from login2.j-focus.jp
[user0001@ff01 ~]$ hostname
ff01.p
[user0001@ff01 ~]$

 コマンドを使ってlocalhostから直接フロントエンドサーバへファイルのコピーを行うことも可能です。

【多段SSH接続を使ったscp実行例】

[local host] $ scp testfile ff01Focus:~ ←testfileをff01のホームにコピー Enter passphrase for key '~/id_rsa': ←公開鍵・秘密鍵のパスフレーズ user0001@ff01's password: ←サーバログイン用のアカウントパスワードを入力 testfile 100% 217 0.2KB/s 00:00 [localhost] $

 

 

▲このページの先頭へ

・Tera Termマクロ を使ったSSH多段接続の設定方法

 Tera Term マクロを使い、ログインサーバへのSSH接続を自動化します。

(1) テキストエディタを使ってマクロを作成します。
  以下では「FOCUS_FF.ttl」という名前でファイルを作成しています。
  (接尾語は「.ttl」にしてください。)

LOGPATH = 'C:\<ログを保存したいパス>'
HOSTNAME1 = 'ssh.j-focus.jp'
HOSTNAME2 = 'ff.j-focus.jp'
USERNAME = 'アカウント名'
KEYFILE = 'C:\<事前準備で作成した秘密鍵の保管場所>\id_rsa'

COMMAND = HOSTNAME1
strconcat COMMAND ':22 /ssh /auth=publickey /user='
strconcat COMMAND USERNAME
strconcat COMMAND ' /keyfile='
strconcat COMMAND KEYFILE
strconcat COMMAND ' /ask4passwd'
connect COMMAND

LOGFILE = LOGPATH
strconcat LOGFILE HOSTNAME1
getdate datestr "%Y%m%d-%H%M%S"
strconcat LOGFILE '-'
strconcat LOGFILE datestr
strconcat LOGFILE '.log'

logopen LOGFILE 0 0 1 1 1

remote_prompt = '$'
wait remote_prompt

COMMAND = 'ssh '
strconcat COMMAND username
strconcat COMMAND '@'
strconcat COMMAND hostname2
sendln COMMAND


 

(2) エクスプローラを開き、該当ファイル(例「FOCUS_FF.ttl」)を右クリックし[プロパティ]を選択します。

 


(3)[ファイルの種類]→[変更]→[このファイルの種類を開くプログラムを選択]→[ttpmacro.exe]を選択します。

 

(4) 接尾語「.ttl」をもつファイル(例「FOCUS_FF.ttl」)をダブルクリックするとTera Termが起動します。

(5)「SSH認証」画面でパスワードを入力し、[OK]ボタンをクリックします。

 

(6) 以上の手順でフロントエンドサーバにログインできます。(「アカウント名@ff」コマンドは自動的に入力されます。)

 

 

▲このページの先頭へ

・SCPによるファイル転送(インターネットからのSSH多段接続)

ここでは前述の『2.1.1.4. SCPファイル転送』①事前準備で変換した秘密鍵を使用します。

(1) スタートメニュー[すべてのプログラム]→[WinSCP]  を順に選択します。

(2)『ログイン - WinSCP』画面で「設定」ボタンをクリックします。

 


(3)[接続]→[トンネル]を順に選択し、以下の指定を行います。
 

・SSHトンネルを経由して接続 チェックを入れる
・ホスト名 ssh.j-focus.jp
・ポート番号 22
・ユーザ名 アカウント名(「u」+“課題名”+数字4桁)
・秘密鍵 WinSCP用に変換したPuTTY形式の秘密鍵を指定
(鍵の変換方法は『2.1.1.4. SCPファイル転送』①事前準備を参照)

 


(4) 「新しいサイト」を選択し、以下を指定し、[保存]ボタンをクリックします。
 

・ホスト名 ff01またはff02
・ユーザ名 アカウント名(「u」+“課題名”+数字4桁)

 


(5) 『セッションの保存名』画面で保存名(例:FOCUSフロントエンド接続)を入力し、[OK]ボタンをクリックします。

 


(6) 『警告』画面(初回アクセス時のみ表示されます)が表示されたら、内容を確認したうえで、[はい]ボタンをクリックします。

 


(7) 『パスフレーズの入力』画面で公開鍵・秘密鍵のパスフレーズを入力し、[OK]ボタンをクリックします。

 


(8)アカウントのパスワードを入力します。
 


(9) 以上でお手元のマシン(localhost)とフロントエンドサーバ間でファイル転送が出来るようになります。
 

 

▲このページの先頭へ

2.1.2.インターネットからのSSL-VPN接続による利用方法


お手元のマシンがインターネットに対してSSL-VPN接続できる環境であれば、SSL-VPN接続でアクセスすることができます。また、ログインするときのホスト名、接続プロトコルは下表のとおりです。
 


システム名 ホスト名 接続プロトコル
SSH telnet SCP FTP
共用フロントエンドサーバ
(共用利用向け)
ff01, ff02 × ×
専用フロントエンドサーバ
(占有利用向け)
ft01, ・・・, ft04,
fm01, ・・・, fm08,
ff03, ff04

 

共用フロントエンドサーバの利用については 「2.1.1.3.共用フロントエンドサーバへの接続」に記載の 【共用フロントエンド利用についての注意点】をご確認ください。
 

▲このページの先頭へ

2.1.2.1.SSL-VPN接続によるログイン

SSL-VPN接続を使ってログインすることができます。

図2.1.2.1 SSH接続イメージ

お手元のマシン
(localhost)
SSL-VPN接続
(インターネット)
→ SSH接続 → 共用フロントエンドサーバ
(ff01.j-focus.jp,ff02.j-focus.jp)

手順は次のとおりです。

(1)SSL-VPN接続を開始します。接続方法は『SSL-VPN利用者マニュアル』(http://www.j-focus.jp/sslvpn/)を参照します。

(2)スタートメニュー[すべてのプログラム]→[Tera Term]→[Tera Term]を順に選択します。(Tera Termを起動します。)

(3)Tera Term『新しい接続』画面で以下を指定し、[OK]ボタンをクリックします。
 

・ホスト名 ff01.j-focus.jp または ff02.j-focus.jp
(混雑しないように ff01 と ff02 を使いわけてください。)
・サービス SSH
・SSHバージョン SSH2

 


(4)『SSH認証』画面で以下を指定し、[OK]ボタンをクリックします。
 

・ユーザ名 アカウント名(「u」+“課題名”+数字4桁)
・パスフレーズ パスワード
・プレインテキストを使う チェックする

操作の途中で『セキュリティ警告』画面が表示された場合は[続行]ボタンをクリックして手順を続けます。

 


(5)以上の手順で共用フロントエンドサーバへのssh接続に成功すると、以下のような画面が表示されます。

 

 

▲このページの先頭へ

2.1.2.2.SSL-VPN接続によるSCPファイル転送(WinSCP使用)

SSL-VPN接続を使って、システムにSCPによるファイル転送を行います。

図2.1.2.2  SCPファイル転送

お手元のマシン
(localhost)
SSL-VPN接続
(インターネット)
→ SCPファイル転送 → 共用フロントエンドサーバ
(ff01.j-focus.jp,ff02.j-focus.jp)

手順は次のとおりです。

(1)SSL-VPN接続を開始します。接続方法は『SSL-VPN利用者マニュアル』(http://www.j-focus.jp/sslvpn/)を参照します。

(2)スタートメニュー[すべてのプログラム]→[WinSCP]→[WinSCP]を順に選択します。

(3)『WinSCPログイン』画面で以下の指定を行い、[ログイン]ボタンをクリックします。
 

・ファイルプロトコル SFTP
・ホスト名 ff01.j-focus.jpまたはff02.j-focus.jp
(混雑しないように ff01 と ff02 を使いわけてください。)
・ポート番号 22
・ユーザ名 アカウント名(「u」+“課題名”+数字4桁)
・パスワード アカウントのパスワード

 


(4) 下図のような画面でファイルを転送できるようになります。
 

 

▲このページの先頭へ

2.1.2.3.X Window Systemを利用するアプリケーションの使用


X Window Systemを利用するアプリケーションを使用する場合は事前に本手順を実行します。

(1)SSL-VPN接続を開始します。接続方法は『SSL-VPN利用者マニュアル』(http://www.j-focus.jp/sslvpn/)を参照します。

(2) スタートメニュー[すべてのプログラム]→[Cygwin-X]→[XWin Server]を順に選択します。

(3) スタートメニュー[すべてのプログラム]→[Tera Term]を順に選択します。

(4) Tera Term『新しい接続の設定』画面で、[キャンセル]ボタンをクリックします。

(5) Tera Termメニュー[設定]→[SSH転送]を順に選択します。

 


(6)『SSHポート転送』画面で、[リモートの(x)アプリケーションをローカルのXサーバに表示する]にチェックを入れ、[OK]ボタンをクリックします。

 


(7) Tera Termメニュー[ファイル]→[新しい接続]を順に選択します。

 


(8)前述の手順『2.1.1.2. ログインサーバへのSSH接続』、『2.1.1.3. 共用フロントエンドサーバへの接続』を使って、共用フロントエンドサーバにSSH接続を行い、続けてアプリケーション固有の操作を行うことで、X Window Systemを利用するアプリケーションを使用できます。

 

▲このページの先頭へ

2.1.3.高度計算科学研究支援センター内でのログイン方法


前述『2.1.2. インターネットからのSSL-VPN接続による利用方法』の各小節(2)以降の手順を使って、センター内からFOCUSスパコンシステムにログインできます。なお、講習用端末のハードディスクは、再起動すると初期化されますのでご注意ください。

 

 

▲このページの先頭へ


【次回 12/13 開催】  HPCIアクセスポイント神戸利用講習会

$
0
0

平成28年度 HPCIアクセスポイント神戸利用講習会

【主催】 公益財団法人 計算科学振興財団(FOCUS)
     
【場所】 高度計算科学研究支援センター(計算科学センタービル)2F アクセス
  

【日時】 ※講習時間は各回全て11時~12時の1時間です。

 

【第1回】 4月19日(火) 終了

【第2回】 5月10日(火)

終了

【第3回】 6月14日(火)

終了

【第4回】 7月12日(火)

終了

【第5回】 8月9日(火)

終了

【第6回】 9月13日(火)

終了

【第7回】 10月12日(水)

終了

【第8回】 11月15日(火)

受付終了

【第9回】 12月13日(火)

受付中

12/9(金)10時受付締切

【第10回】 1月11日(水)

受付中

1/6(金)10時受付締切

【第11回】 2月14日(火)

 

【第12回】 3月14日(火)

 

 

【概要】
HPCIアクセスポイント神戸利用講習会では、スーパーコンピュータ「京」及び「京」以外のHPCIの産業利用拠点として整備された
HPCIアクセスポイント神戸の概要紹介と利用手続きの流れ、利用方法についてご紹介致します。
  

【定員】 10名

【受講料】 無料
 

【プログラム】
0)HPCIシステムを構成する計算資源を提供する機関

1)HPCIアクセスポイント神戸の概要
 1.1 設置目的
 1.2 ネットワークと機器概要

2)利用までの流れ
 2.1 利用者登録申請
 2.2 利用許可申請 

3)ネットワーク及び機器利用方法
 3.1 機器の特徴
 3.2 ネットワークの種類と特徴
 3.3 貸出ストレージ
 3.4 データ転送方法
 3.5 データ転送性能例
 3.6 データ削除コマンド(shred)
 3.7 プリポストソフトウェアの起動方法
  3.7.1 AVS/Express PCE
  3.7.2 Pointwise
  3.7.3 FieldView
  3.7.4 Ensight DR
 3.8 遠隔地からのAP神戸利用方法

4)質疑応答

5)「京」展示コーナー見学(希望者)
  
 

【受講申込方法】

平成28年度FOCUS主催講習会受講申込書兼承認通知書」をダウンロードし、必要事項を記入いただき、

電子メールにてお送りください。

   
【参加申込締切】 講習会開催2業務日前AM10:00

【お問合せ】   業務運用グループ (unyo[at]j-focus.or.jp([at]を@に変更してください)) まで。



3.1.Intel コンパイラ

$
0
0

目次 (3.1.Intel コンパイラ)

3.1.   Intel コンパイラ
3.1.1.  コンパイラ環境の設定(Intelコンパイラ)
3.1.2.  コンパイルコマンド(Intelコンパイラ)
3.1.3.  MPI環境の設定(Intelコンパイラ)
3.1.3.1. Open MPI 1.6.5
3.1.3.2. MPICH2 1.4.1p1
3.1.3.3. Intel MPI
3.1.4.  コンパイラ、MPI環境の切替え
3.1.5.  コンパイル・オプション(Intelコンパイラ)
3.1.6.  コンパイル方法(Intelコンパイラ)
3.1.6.1. 逐次プログラム
3.1.6.2. 自動並列プログラム
3.1.6.3. OpenMPプログラム
3.1.6.4. MPIプログラム(IntelMPI)
3.1.6.5. MPIプログラム(OpenMPI、MPICH2)
3.1.6.6. MKL(Math Kernel Library)
3.1.7.  コンパイル時の注意点

 

 

▲このページの先頭へ

3.1. Intel コンパイラ

コンパイル環境として「インテル® Parallel Studio XE」を利用する事ができます。
なお、現在の設定環境は次のようにmodule list コマンドで確認します。

 

【設定環境の確認例-初期状態】

$ module list
No Modulefiles Currently Loaded.
$

 

【設定環境の確認例-設定状態】

$ module list
Currently Loaded Modulefiles:
1) PrgEnv-intel 2) impi    ←Intel コンパイラとIntel MPI 環境が設定されている状態の例です。
$

 

▲このページの先頭へ

3.1.1. コンパイラ環境の設定(Intel コンパイラ)

1.環境の設定

$ module load PrgEnv-intel

※ MKL(Math Kernel Library)のリンク環境も同時に設定されます。

 

2.設定環境の確認

$ module list
Currently Loaded Modulefiles:
1) PrgEnv-intel

 

3.環境の設定解除

$ module unload PrgEnv-intel

 

▲このページの先頭へ

3.1.2. コンパイルコマンド(Intel コンパイラ)

各言語のコンパイルコマンドは以下の通りです。

使用言語 コマンド コマンド形式
Fortran ifort ifort [オプション] ファイル…
C 言語 icc icc [オプション] ファイル…
C++ icpc icpc [オプション] ファイル…

 

▲このページの先頭へ

3.1.3. MPI 環境の設定(Intel コンパイラ)

3.1.3.1. Open MPI 1.6.5

1. 環境の設定

$ module load intel/openmpi165

 

2. 設定環境の確認

$ module list
Currently Loaded Modulefiles:
 1) intel/openmpi165

 

3. 環境の設定解除

$ module unload intel/openmpi165

 

4.コンパイルコマンド

 各言語のコンパイルコマンドは以下の通りです。

使用言語 コマンド コマンド形式
MPI(Fortran) mpif90 mpif90 [オプション] ファイル…
MPI(C 言語) mpicc mpicc [オプション] ファイル…
MPI(C++) mpicxx mpixx [オプション] ファイル…

 

▲このページの先頭へ

3.1.3.2. MPICH2 1.4.1p1

1.環境の設定

$ module load intel/mpich2141p1

 

2.設定環境の確認

$ module list
Currently Loaded Modulefiles:
  1) intel/mpich2141p1

 

3.環境の設定解除

$ module unload intel/mpich2141p1

 

4.コンパイルコマンド

各言語のコンパイルコマンドは以下の通りです。

使用言語 コマンド コマンド形式
MPI(Fortran) mpif90 mpif90 [オプション] ファイル…
MPI(C 言語) mpicc mpicc [オプション] ファイル…
MPI(C++) mpicxx mpixx [オプション] ファイル…

 

▲このページの先頭へ

3.1.3.3. Intel MPI

1. 環境の設定

$ module load impi

 

2.設定環境の確認

$ module list
Currently Loaded Modulefiles:
   1) impi

 

3.環境の設定解除

$ module unload impi

 

4.コンパイルコマンド

各言語のコンパイルコマンドは以下の通りです。

使用言語 コマンド コマンド形式
MPI(Fortran) mpiifort mpiifort [オプション] ファイル…
MPI(C 言語) mpiicc mpiicc [オプション] ファイル…
MPI(C++) piicpc mpiicpc [オプション] ファイル…


FOCUSスパコン環境では旧バージョンのIntel MPIも提供しておりますが、旧バージョンには後述するコマンドの不具合があることを確認しております。
特にバージョンを指定する必要が無い場合は、FOCUSスパコン環境で提供されている最新版のIntel MPIをご利用下さい。
※最新版の環境は module load impi コマンドを使用することで自動的に設定されます。

Intel MPI 4.1.1をお使いになる必要がある場合、4.1.1に含まれるmpirunコマンドには、ノード名を処理する箇所に不具合がございます。
この不具合は、hostfileオプションを使用しノードの一覧を明示的に指定することで回避することが出来ます。
mpirunコマンド使用の際には、ジョブスクリプトを以下のように変更し、ご使用下さい。

module load PrgEnv-intel
module load impi411
NODEFILE=`generate_pbs_nodefile`
mpirun -hostfile ${NODEFILE} -np ${SLURM_NTASKS} 実行ファイル

 

▲このページの先頭へ

3.1.4. コンパイラ、MPI 環境の切替え

コンパイラ、MPI 環境を切り替えるコマンドは以下の通りです。

コンパイラ MPI 環境設定コマンド 設定解除コマンド
Intel コンパイラ OpenMPI module load PrgEnv-intel
module load intel/openmpi165
module unload PrgEnv-intel
module unload intel/openmpi165
MPICH2 module load PrgEnv-intel
module load intel/mpich2141p1
module unload PrgEnv-intel
module unload intel/mpich2141p1
IntelMPI module load PrgEnv-intel
module load impi
module unload PrgEnv-intel
module unload impi

 

▲このページの先頭へ

3.1.5. コンパイル・オプション(Intel コンパイラ)

Intel コンパイラの主なコンパイル・オプションを示します。

オプション 説明
-c オブジェクトファイルが生成された後、コンパイル処理を停止します。コンパイラは、CまたはC++の各ソースファイルまたは前処理されたソースファイルからオブジェクトファイルを生成します。
-C 前処理されたソースの出力にコメントを配置します。
-o filename 実行可能ファイル名を指定します。省略時はa.out で作成されます。
-g 一般的な開発環境のデバッガーで使用できるデバッグ情報を生成します。このオプションは、/O2(-O2)(または別のO オプション)が指定されない限り、/O2(-O2)をオフにして/Od(-O0)をデフォルトにします。
-O0 最適化は行われません。このオプションは、アプリケーション開発の初期段階およびデバッグ時に使用します。アプリケーションが正常に動作することを確認した後は、より高度なオプションを使用してください。
-O1 サイズを考慮した最適化を行います。オブジェクトのサイズを増やす傾向がある最適化を省略します。多くの場合、最小限のサイズで最適化されたコードが作成されます。
コードサイズが大きいため、メモリーページングが問題になる巨大なサーバ/データベース・アプリケーションにおいて、このオプションは効果的です。
-O2 最速化します(デフォルト設定)。ベクトル化と実行速度を改善する多くの最適化を有効
にします。多くの場合、/O1(-O1)よりも速いコードを作成します。
-O3 /O2(-O2)の最適化に加えて、スカラ置換、ループアンロール、分岐を除去するコード反復、効率的にキャッシュを使用するループ・ブロッキング、データ・プリフェッチ機能など、強力なループ最適化およびメモリーアクセス最適化を行います。
/O3(-O3)オプションは、特に浮動小数点演算を多用するループや大きなデータセットを処理するループを含むアプリケーションに推奨します。この最適化は、場合によって/O2(-O2)の最適化よりもアプリケーションの実行が遅くなることがあります。
-fast プログラム全体の速度を最大限にします。次のオプションを設定します。
-ipo、-O3、-no-prec-div、-static、-xHost
-static 静的ライブラリをリンクします。
-opt-report [n] 最適化レポートを作成し、stderr 出力します。n には、0(レポートなし)から3(最大限の情報)の範囲で詳細レベルを指定します。デフォルトは2 です。
-openmp OpenMP* 指示句がある場合、その指示によるマルチスレッド・コードが生成されます。
スタックのサイズを増やさなければならないことがあります。
-par-report[n] 自動並列化の診断レベルを制御します。n には、0(レポートなし)から3(最大限の情報)の範囲で詳細レベルを指定します。デフォルトは0 です。
-ip 単一ファイルの最適化を行います。現在のソースファイルを対象にしたインライン展開を含むプロシージャー間の最適化です。
-ipo[n] インライン展開およびその他のプロシージャー間の最適化を複数のソースファイルに対して行います。オプションのn 引数には、コンパイル時に生成するオブジェクトファイルの最大数を指定します。デフォルトのn は0 です(コンパイラが最適なファイル数を自動選択)。
警告:条件によってはコンパイル時間とコードサイズが大幅に増加する場合があります。
-prof-gen プロファイル最適化で参照する動的なパフォーマンス・データを生成するため、プログラムにインストルメント・コードを埋め込みます。
-prof-use 最適化中にprof-gen オプションで生成した実行ファイルのプロファイリング情報を参
照します。
-prof-dir dir プロファイル出力ファイル*.dyn および*.dpi を格納するディレクトリを指定します。
-fp-model name

浮動小数点演算における演算モデルを制御します。特定の最適化を制限して浮動小数点結果の一貫性を強化します。name の値は次のとおりです。

fast=[1|2] – 精度や一貫性を多少低くすることにより、さらに強力な最適化が可能になります(デフォルトは、fast=1)。一部の最適化は、インテル® マイクロプロセッサーのみに適用される場合があります。


precise – 精度に影響しない最適化のみ有効にします。


double/extended/source – 中間結果をそれぞれ倍精度、拡張精度、ソースの精度で丸めます。変更されない限り、precise も適用されます。インテル® Fortranコンパイラでは、double オプションおよび extended オプションは利用できません。


except – 浮動小数点例外セマンティクスを使用します。


strict – precise オプションと except オプションの両方を有効にし、デフォル
トの浮動小数点環境を想定しません。


推 奨 : 浮 動 小 数 点 演 算 の 一貫 性や再 現 性 が 重 要 な状 況では、
/fp:precise /fp:source(-fp-model precise –fp-model source)を推奨します。

-[no]restrict restrict キーワードとともに指定すると、ポインターの一義化が有効[無効]になります。デフォルトではオフです(C/C++)。
-mkl[=parallel,sequential,cluster]

数値演算ライブラリIntel Math Kernel Library(MKL)をリンクします。最適化されたBLAS,LAPACK,ベクトル演算ライブラリなどを利用する場合に用います。


-mkl
-mkl=parallel 並列のインテル® MKL ライブラリを使用


-mkl=sequential シーケンシャルなインテル® MKL ライブラリを使用


-mkl=cluster クラスタのインテル® MKL ライブラリを使用

-mcmodel[=small, medium, large] コードとデータサイズを指定します。
-mcmodel=small : デフォルト、コードとデータサイズが2GB までの制限あり
-mcmodel=medium : コードが2GB までの制限あり、データサイズは制限なし
-mcmodel=large : コードとデータサイズに制限なし

 

▲このページの先頭へ

3.1.6. コンパイル方法(Intel コンパイラ)

主なコンパイル方法を以下に示します。

 

3.1.6.1. 逐次プログラム

1. Fortran の例

$ ifort test.f90

 

2. C 言語の例

$ icc test.c

 

3.C++の例

$ icpc test.cpp

 

▲このページの先頭へ

3.1.6.2. 自動並列プログラム

1. Fortran の例

$ ifort -parallel test.f90

 

2. C 言語の例

$ icc -parallel test.c

 

3.C++の例

$ icpc -parallel test.cpp

 

▲このページの先頭へ

3.1.6.3. OpenMP プログラム

1. Fortran の例

$ ifort -openmp test.f90

 

2. C 言語の例

$ icc -openmp test.c

 

3.C++の例

$ icpc -openmp test.cpp

 

▲このページの先頭へ

3.1.6.4. MPI プログラム(IntelMPI)

1. Fortran の例

$ mpiifort test.f90

 

2. C 言語の例

$ mpiicc test.c

 

3.C++の例

$ mpiicpc test.cpp

 

▲このページの先頭へ

3.1.6.5. MPI プログラム(OpenMPI、MPICH2)

1. Fortran の例

$ mpif90 test.f90

 

2. C 言語の例

$ mpicc test.c

 

 

 

3.C++の例

$ mpicxx test.cpp

 

▲このページの先頭へ

3.1.6.6. MKL(Math Kernel Library)

MKL ライブラリは、工学、科学、金融系ソフトウェアの開発者向けに 線形代数ルーチン、高速フーリエ変換、ベクトル・マス・ライブラリ関数、乱数生成関数を利用することができます。


前述の手順『3.1.1 コンパイラ環境の設定(Intel コンパイラ)』で、MKL のリンク環境も同時に設定されます。


以下にC 言語のコンパイルの例を示します。C 言語(icc、mpicc)のみを記述していますが、Fortran(ifort、mpiifort)、C++(icpc、mpiicpc)はコマンドを読み替えてください。

 

1. 並列/動的ライブラリ

$ icc test.c -mkl
または
$ icc test.c -mkl= parallel

 

2. 並列/静的ライブラリ

$ icc test.c -mkl -static-intel
または
$ icc test.c -mkl= parallel -static-intel

 

3.シーケンシャル/動的ライブラリ

$ icc test.c -mkl=sequential

 

4. シーケンシャル/静的ライブラリ

$ icc test.c -mkl=sequential -static-intel

 

5. MPI/動的ライブラリ

$ mpicc mpisample.c -mkl=cluster

 

6. MPI/静的ライブラリ

$ mpicc mpisample.c -mkl=cluster -static-intel

 

▲このページの先頭へ

3.1.7.コンパイル時の注意点 (Intel コンパイラ)

ABCDEの各システム毎でプロセッサーのアーキテクチャが異なります。コンパイル時に以下のオプション指定に注意してください。

オプション Aシステム Bシステム Cシステム Dシステム Eシステム Gシステム
-fast
-xHOST
-xSSE4.2
上記オプション無し

☓:指定すると動作しない
○:動作する

 

▲このページの先頭へ


2.7.moduleコマンド

$
0
0

目次 (2.7.moduleコマンド)

2.7.   moduleコマンド

▲このページの先頭へ

2.7.moduleコマンド

FOCUSスパコンでは、様々なプログラムの実行環境の設定にmoduleコマンドを用います。
 

(1) 対応している環境の一覧表示

$ module avail

 

【実行例】

$ module avail
--------------------------- /home1/share/modulefiles ----------------------------
cmake2812                 impi513                   PrgEnv-intel-17.0.1.132
conflex                   intel/mpich2141p1         python/2.7.11
conflex7.c                intel/openmpi165          python/2.7.12
gnu/mpich2141p1           MIZUHO_ABINIT-MP3.01      python/2.7.6
gnu/openmpi142            MIZUHO_ABINIT-MP3.0_FOCUS python/3.3.3
gnu/openmpi165            PrgEnv-gnu482             python/3.5.1
impi                      PrgEnv-intel              python/3.5.2
impi-2017.1.132           PrgEnv-intel-14.0.0.080   share
impi410                   PrgEnv-intel-14.0.2.144   slurm
impi411                   PrgEnv-intel-15.0.1.133
impi502                   PrgEnv-intel-16.0.2.181

 

 

(2) 環境設定の読み込み

$ module load モジュール名

 

【実行例】

$ module load PrgEnv-intel

 

 

(3) 読み込んだ環境設定の表示

$ module list

 

【実行例】

$ module list
Currently Loaded Modulefiles:
  1) PrgEnv-intel

 

 

(4) 環境設定の解除

$ module unload モジュール名

 

【実行例】

$ module unload PrgEnv-intel

 

▲このページの先頭へ


1.FOCUSスパコンシステムの概要

$
0
0

目次 (1. FOCUSスパコンシステムの概要)

1.    FOCUSスパコンシステムの概要
1.1.   システム構成
1.1.1.  システム概要図
1.1.2.  システム構成要素の特徴
1.2.   ハードウェア構成
1.2.1.  サーバ
1.3.   ソフトウェア構成
1.3.1.  オペレーティングシステム(OS)
1.3.2.  ソフトウェア
1.3.3.  アプリケーション
1.3.3.1. ライセンスが必要なアプリケーション(商用・有償)
1.3.3.2. フリーソフトウェア
1.3.3.3. アプリケーションに関するサポート
1.4.   製品マニュアル
1.5.   ディレクトリ構成
1.5.1.  共用フロントエンドサーバ
1.5.2.  演算ノード

 

▲このページの先頭へ

1. FOCUSスパコンシステムの概要

 

1.1. システム構成

 

1.1.1. システム概要図

※高度計算科学研究支援センター外にクラウドストレージシステムがあり、フロントエンドサーバからアクセス可能です。

 

▲このページの先頭へ

1.1.2. システム構成要素の特徴

産業利用加速用計算機システムを構成する要素について、特徴は以下の通りです。

FOCUSスパコンシステムを構成する要素について、特徴は以下の通りです。

・ファイアウォール
インターネットからの不正アクセスを防ぎます。各種ポートを塞いだり一方通行にしたり等のアクセス制御を行います。

・ウェブサーバシステム
FOCUSスパコンシステムの利用に関する情報を提供します。運用情報や予約状況等を表示します。

・ログインサーバシステム
インターネットからのSSHプロトコルを使用したログイン接続、ファイル転送の中継を行います。この計算機に一旦ログインしてから再度、フロントエンドサーバシステムにSSHでログイン、ファイル転送を行います。

・フロントエンドサーバシステム
FOCUSスパコンシステムを利用するための拠点となります。プロジェクト毎の専用のファイルシステムがマウントされ、利用者がログインし、プログラムの開発、ジョブ管理システムの利用、小規模な解析・デバッグ、小規模なプリポスト処理等を行います。

共用フロントエンドサーバの利用については 「2.1.1.3.共用フロントエンドサーバへの接続」に記載の 【共用フロントエンド利用についての注意点】をご確認ください。

・Aシステム  ノード間高並列演算指向
ノード内12コアを利用した共有メモリ並列から、Infiniband-QDR(40Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Bシステム  プリポスト・大容量メモリ処理用
大容量共有メモリ(512GB)を備え、入力データを作成したり、計算した結果をディスク上から大規模共有メモリに読込んで高速にポスト処理を行ったりするためのシステムです。ノード内に16コアを備えております。

・Cシステム  ノード内並列専用
通信ネットワークを除いて性能はAシステムと同等です。ノード間はGigabit Ethernetで接続されています。このためノード内並列に利用頂けます。

・Dシステム  ノード内並列/ノード間高並列演算兼用
ノード内20コアを利用した共有メモリ並列から、Infiniband-FDR(56Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Eシステム  コプロセッサ搭載システム
インテル製 「Xeon Phi 5110P」(1基あたり60コア)をノード1台あたり4基(60×4=240コア)、合計192基を搭載しております。ノード内20コアを利用した共有メモリ並列から、Infiniband-FDR(56Gbit/s)で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・Gシステム  コプロセッサ搭載システム
インテル製 「Xeon Phi 5110P」(1基あたり60コア)をノード1台あたり1基搭載しております。ノード内12コアを利用した共有メモリ並列から、Gigabit Ethernet (10Gbps) で接続されたノード間分散メモリ並列、それらを組み合わせたハイブリッド並列に利用頂けます。

・NASストレージシステム ホーム領域(/home1)
物理容量は360TBです。
/home1としてマウントされております。ユーザーのホーム領域として課題毎に200GBの利用が可能です。通信帯域は全体で500MB/sです。通信帯域はFOCUSスパコン全利用者にて共有しているため、I/O性能は自身も含めた全ユーザのI/O状況に依存します。

・大容量分散高速ストレージシステム ホーム兼ワーク領域(/home2)
物理容量は1640TBです。
/home2としてマウントされています。ユーザのホーム兼ワーク領域となり、利用には追加契約が必要となります。月単位・10GB単位で容量を追加/削減することが可能です。契約容量を削減し、実利用量が契約容量を上回っている場合は利用分課金されます(10GB単位)のでご留意ください。通信帯域は全体で11GB/s、プロセスあたり最大1GB/sです。分散ファイルシステムであり、上記NASストレージシステムと比べて22倍、後述クラウドストレージシステムの1100倍の通信帯域となっておりますので、大規模並列計算の複数プロセスによるI/Oに適しております。

・クラウドストレージシステム バックアップ・アーカイブ領域(/cloud1)
FOCUSスパコンが設置された計算科学センタービル(日本データセンター協会 データセンターファシリティスタンダード ティア1)から専用線で接続された日本国内のデーターセンター(ティア3)に設置されたクラウドストレージが /cloud1としてマウントされています。
/home1や/home2のバックアップ・アーカイブ領域となり、利用には追加契約が必要です。 月単位・10GB単位で容量を追加することが可能です。通信帯域は全体で10MB/s です。通信帯域は FOCUS スパコン全利用者にて共有しているため、I/O 性能は自身も含めた全利用者の I/O 状況に依存します。 /home2のデータをバックアップするときは性能差が3桁あることをよく認識して ご利用ください。なお、通信帯域は別契約で年単位にて課題専用に増やすことが可能です。
また、クラウドストレージサービス提供元と契約することでクラウドストレージを利用者のサイトと接続することも可能です。その際はFOCUSスパコンがメンテナンス中でもクラウドストレージのデータにアクセスすることが可能です。

▲このページの先頭へ

1.2. ハードウェア構成

1.2.1. サーバ

・Aシステム

ハードウェア 富士通 BX922 S2
CPU Intel Xeon L5640(2.26GHz) ×2CPU(計12コア)/ノード
メモリ 48 GB/ノード
インタフェース Infiniband-QDR(40Gbps)×1/ノード
ターボブースト OFF

・Bシステム

ハードウェア 富士通製RX600 S5
CPU Intel Xeon E7520(1.86GHz) ×4CPU(計16コア)/ノード
メモリ 512 GB/ノード
インタフェース Infiniband-QDR(40Gbps)×1/ノード
ターボブースト 未対応

・Cシステム

ハードウェア 富士通製CX122S1
CPU Intel Xeon L5640(2.26GHz)×2CPU(計12コア)/ノード
メモリ 48 GB/ノード
ターボブースト OFF

・Dシステム

ハードウェア Cray H2312WFFKR (HPC専用 2Uラックマウント型 ブレードサーバ)
CPU Intel Xeon E5-2670 v2 (2.5GHz) ×2CPU(計20コア)/ノード
メモリ 64 GB/ノード
インターフェース Infiniband-FDR(56Gbps)×1/ノード
ターボブースト ON

・Eシステム

ハードウェア Cray GreenBlade GB824X (HPC専用 ブレード型サーバ)
CPU Intel Xeon E5-2670 v2 (2.5GHz) ×2CPU(計20コア)/ノード
コプロセッサ Intel Xeon Phi 5110P ×4基(計240コア)/ノード
メモリ 128 GB/ノード
インターフェース Infiniband-FDR(56Gbps)×1/ノード
ターボブースト ON

・Gシステム

ハードウェア NEC Express5800/HR120a-1
CPU Intel Xeon E5-2640 (2.5GHz) ×2CPU(計12コア)/ノード
コプロセッサ Intel Xeon Phi 5110P ×1基(計 60コア)/ノード
メモリ 64 GB/ノード
ターボブースト ON

・共用フロントエンドサーバ

ハードウェア Intel R2308GZ4GC (HPC専用 2Uラックマウント型サーバ)
CPU Intel Xeon E5-2680 v2 (2.8GHz) ×2CPU(計20コア)/ノード
コプロセッサ Intel Xeon Phi 5110P x 1基(計60コア)/ノード
メモリ 64 GB/ノード

・インターネット高速転送サーバ
 IBM Sytem x3550M4で構成され、ハードウェアをログインサーバと共用します。

・ログインサーバ
 IBM System x3550M4 2ノードによる構成です。うち一台は、インターネット高速転送サーバとハードウェアを共用します。

 

 

▲このページの先頭へ

1.3. ソフトウェア構成

1.3.1. オペレーティングシステム(OS)

各システムで採用するオペレーティングシステム(OS)を示します。

表 1.3.1 オペレーティングシステム(OS)

システム名 オペレーティングシステム(OS)
ログインサーバ CentOS 6.6(64bit版)
共用フロントエンドサーバ Red Hat Enterprise Linux 6.6(64bit版)
演算ノード CentOS 6.6(64bit版)

 

▲このページの先頭へ

1.3.2. ソフトウェア

FOCUSスパコンシステムで利用可能な主なソフトウェアの一覧を示します。

表 1.3.2 ソフトウェア一覧

ソフトウェア フロントエンドサーバ 演算ノード
ジョブスケジューラ
Slurm Workload Manager 15.08.8
開発環境(コンパイラ)
インテル(R) Cluster Studio XE 2013 SP1
インテル(R) Cluster Studio XE 2013 SP1 Updae 2
インテル(R) Parallel Studio XE 2015 Cluster Edition Update 1
インテル(R) Cluster Studio XE 2016 Cluster Edition Update 2
インテル(R) Cluster Studio XE 2017 Cluster Edition Update 1
GNU 4.4.7
GNU 4.8.2
ソフトウェア
Java SDK 1.7.0_45
Emacs 23.1.1
vim 7.2
OpenMPI 1.4.2
OpenMPI 1.6.5
MPICH2 1.4.1p1
OpenMX 3.7.6
GAMESS 201310
ABINIT-MP 4.1
ABINIT-MP 6.0
ABINIT-MP 7.0
NAMD 2.9
GROMACS 4.6.5
LAMMPS 28Jun14
Quantum ESPRESSO 5.0.2
OpenFOAM 2.1.x
OpenFOAM 2.2.2
OpenFOAM 2.3.0
OpenFOAM Ext 1.6
ParaView 4.0.1
gnuplot 4.6.4
Octave 3.6.4
Pov-Ray 3.6.1
R 3.0.2
GLview 20131211
AutoDock Vina 1.1.2
NTChem 2013 4.0
GNU Scientific Library 1.16
cmake 2.8.12
Python 2.7.6
Python 3.3.3
FDPS 1.0

 

▲このページの先頭へ

1.3.3. アプリケーション

/home1/share/にインストールしたアプリケーション、数値計算ライブラリ等はご自由に利用ください。FOCUSスパコン上で動作検証済みの商用・有償アプリケーション(Gaussian、MIZHO/BioStation、ParallelCONFLEX 以外)は、ソフトウェアベンダーからライセンスを取得して頂きまして利用頂けます。その他フリーソフト等、各利用者がホームディレクトリ配下に独自にインストールしたものが利用可能です。
 

1.3.3.1.ライセンスが必要なアプリケーション(商用・有償)

a)コンパイラ
 Intelコンパイラは、導入済みのライセンスがありますので、使用していただくことができます。 (ただしまれに同時にご使用の方が多いタイミングで、導入しておりますライセンス数を越えてしまい、ご使用のためのライセンスがありませんというエラーが出ることがありますが、そのような場合はしばらく時間を置いてご利用下さい。)

b)Gaussian、MIZUHO/BioStation, ParallelCONFLEX
 Gaussian、MIZUHO/BioStation や ParallelCONFLEX をFOCUSスパコンで利用する場合は、ライセンスを準備する必要はありませんが、演算ノードの利用料とは別にノード時間に応じて利用料がかかります。これらアプリケーションの利用を希望するユーザは、OKBiz( https://secure.okbiz.okwave.jp/focus/ )より利用希望する旨連絡してください。

c)上記以外の商用・有償ソフトウェア
 上記以外の商用・有償ソフトウェアをFOCUSスパコンで利用する場合は、各アプリケーションのベンダーに問い合わせて下さい。(FOCUSスパコンに未導入の商用ソフトウェアを利用されたい場合は、各ソフトウェアベンダーにFOCUSスパコンで使用したいとご相談下さい。)
 

▲このページの先頭へ

1.3.3.2.フリーソフトウェア

/home1/shareにインストールされているアプリケーション、ライブラリ等は自由に使っていただくことができます。しかしながら当該アプリケーションのご利用にあたってはFOCUSによるサポートはありません。
利用者あるいはグループとしてFOCUSスパコンに未導入のフリーソフトウェアを利用されたい場合は、各アカウントのホームディレクトリやグループ共用のホーム領域(/home1/グループ名/share)に自由にインストールして利用して頂いてかまいません。基本的にFOCUSからのサポートはありません。
 

▲このページの先頭へ

1.3.3.3.アプリケーションに関するサポート

FOCUSスパコンに導入した商用ソフトウェアのサポートは各ソフトウェアベンダーが行っており、以下のサポートサービスが提供されております。

 FOCUSスパコンに導入された商用ソフトウェアのサポートは各ソフトウェアベンダーが行います。 ソフトウェアベンダーのサポート以外に、現在、以下のサポートサービスが提供されております。

     ・OpenFOAM利用サポートサービス:(株)CAEソリューションズ
     ・Gaussian/GaussView/GAMESS/AMBER/CONFLEX利用サポートサービス:コンフレックス(株)

 


その他、ISV事業者により様々なサポートが準備されており、ご紹介が可能です。紹介をご希望の方はOKBiz(https://secure.OKBiz.okwave.jp/focus/)でお問合せ下さい。
 

▲このページの先頭へ

1.4. 製品マニュアル

センターのネットワーク内で、製品マニュアルを閲覧できます。下記のURLからアクセスしてご覧ください。

  〔URL〕http://fl01.j-focus.jp/ablog/manual/

表 1.4 マニュアル一覧

関連製品名 マニュアル名称 形式
インテル® Cluster Studio XE 2013 インテル Cluster Studio XE リリースノート PDF  
インテル Visual Fortran Composer XE 2013 入門ガイド PDF  
インテル Parallel Studio XE 2013 入門ガイド PDF  
インテル® Cluster Studio XE 関連ドキュメント コンパイラー OpenMP 入門 PDF  
インテル CilkPlus ユーザーズガイド PDF  
OpenMP 3.0 C/C++構文の概要 PDF  
インテル OpenMP 互換ライブラリー 利用ガイド PDF  
コンパイラー最適化 クイック・リファレンス・ガイド PDF  
SP1Update1リリースノート PDF  
インテル® C++ Composer XE 2013 Linux 版 インテル C/C++ コンパイラー OpenMP 活用ガイド PDF  
日本語ユーザー・リファレンス・ガイド PDF  
インテル® Fortran Composer XE 2013 Linux 版 インテル Fortran コンパイラー OpenMP 活用ガイド PDF  
日本語ユーザー・リファレンス・ガイド PDF  
インテル Fortran ライブラリー・リファレンス PDF  
インテル® MPI ライブラリー Intel MPI 入門ガイド PDF  
インテル® Inspector XE チュートリアル-メモリーエラーを検出する(C++) PDF  
チュートリアル-メモリーエラーを検出する(Fortran) PDF  
チュートリアル-スレッド化エラーを検出する(C++) PDF  
チュートリアル-スレッド化エラーを検出する(Fortran) PDF  
インテル® MKL MKL ユーザーズガイド PDF  
入門チュートリアル C++ 言語向け PDF  
入門チュートリアル Fortran 言語向け PDF  
インテル® VTune Amplifier XE チュートリアル-hotspotを見つける(C++) PDF  
チュートリアル-hotspotを見つける(Fortran) PDF  
チュートリアル-ハードウェアの問題を特定する PDF  
チュートリアル-ロックと待機を解析する PDF  
SLURM 2.6.2 SLURM 2.6.2 Documentation HTML  
Gaussian09 Gaussian 09 User's Reference HTML  
IOps Reference HTML  
電子構造論による化学の探究 製本  
Linda Using Gaussian 09 with Linda HTML  
GaussView GaussView 5 Reference PDF  

 

▲このページの先頭へ

1.5. ディレクトリ構成

ご利用の形態やソフトウェア、ジョブの特性によってディレクトリ(ストレージシステム)を使い分けていただくようお願い致します。

1.5.1.共用フロントエンドサーバ

 共用フロントエンドサーバのディレクトリ構成は下表のとおりです。

表1.5.1 ディレクトリ構成(共用フロントエンドサーバ)

ディレクトリパス 利用目的
/home1/グループ名/アカウント名 ホームディレクトリ
/home1/グループ名 グループ共用のホーム領域。容量は課題(グループ)あたり200GB
/home1/グループ名/share グループで共用するソフトウェアを格納するための領域
/home2/グループ名 グループ共用の追加ストレージ領域
/home1/グループ名/アカウント名/skeed
または
/home2/グループ名/アカウント名/skeed
インターネット高速転送システムでデータ授受を行う場合に使用。専用ソフトウェアでは”/”と表示される。
/home1/share システム全体で共用するソフトウェアを格納
/cloud1/グループ名 グループ共用のバックアップ・アーカイブ領域。

※グループ名は「g」+“課題ID”、アカウント名は「u」+“課題名”+数字4桁です。
 

(参考)
/home1 NASストレージシステム(書込み性能 全体で500MB/s)
/home2 分散ファイルシステム(書込み性能 全体で11GB/s、1プロセスあたり最大1GB/s)
/cloud1 クラウドストレージシステム(通信帯域 全体で10MB/s)

▲このページの先頭へ

1.5.2.演算ノード

 演算ノードのディレクトリ構成は下表のとおりです。

表1.5.2 ディレクトリ構成(演算ノード)

ディレクトリパス 利用目的
/work スクラッチディレクトリ(演算ノードのローカルディスク)

※演算ノードにログインすることはありません。
 

(参考)/workの書込み性能は各システムにより異なります。
実測値は「付録A.FOCUSスパコンシステム各種サーバ・ストレージ概要」をご参照ください。

▲このページの先頭へ


【次回 1/12  開催】  やっぱりスパコン用のプログラムはFortran? 初級編

$
0
0

平成28年度「やっぱりスパコン用のプログラムはFortran? 初級編」

【主催】公益財団法人 計算科学振興財団(FOCUS)

【場所】高度計算科学研究支援センター(計算科学センタービル)2F アクセス

【日時】 ※講習時間は各回全て13時半~16時半の3時間です。

 

【第1回】 5月12日(木)

非開催

【第2回】 7月14日(木)

終了

【第3回】 9月15日(木)

終了

【第4回】 11月17日(木)

受付終了

【第5回】 1月12日(木)

受付中

 1/6(金)10時受付締切

【第6回】 3月16日(木)

 

 

※上記の定期開催日以外でも、ご希望の日程にて、受講が可能です。

業務運用グループまでお問い合わせください。

  

 

【概要】
FOCUSスパコンを実際に利用しながら、より少ない時間でFORTRANプログラムを得るためのノウハウ
を身につけていただく事を目的とします。
まず例示されたプログラムを読み、Fortranの特有の文を習い、書かれたプログラムが読めるように
なることを目指します。
実際の講義中、前半2時間でいくつかの短いプログラムを読み、後半1時間で課題のプログラムを作ります。
 

【プログラム】

1. Fortranとは

2. いきなりFortranプログラム

3. Fortranプログラムの書き方

4. Fortranプログラムの構成

5. 利用可能文字と制限

6. データの型

    6.1 定数

    6.2 変数

    6.3 変数の宣言

    6.4 変数の属性

 7. 代入、演算

 8. 簡単な入力と出力

 9. 条件分岐 IF文

10. 繰り返し(ループ)DO文

11. 組込み手続き

    11.1 余りを求める組込み関数

    11.2 乱数を生成する組込み関数

12. 副プログラム(手続:サブルーチンと関数)

    12.1 サブルーチンの定義

    12.2 関数の定義

    12.3 手続引数

    12.4 手続を属させる(contains文)

    12.5 引数授受特性

13. 配列

    13.1 配列宣言

    13.2 配列初期値の設定

    13.3 配列全体の代入や演算

    13.4 配列要素へのアクセス

    13.5 配列に関する主な組込み手続

    13.6 配列を手続に引数で渡す

    13.7 配列を返す関数

    13.8 配列の動的割付

14. 文字列操作

    14.1 文字列の連結

    14.2 文字列の部分指定  

    14.3 文字列内の文字列の検索

    14.4 文字列を手続に引数として渡す

    14.5 任意の長さの文字列を返す関数

15. データ入出力

    15.1 書式指定データ入出力

    15.2 書式指定

    15.3 ファイル入出力

16. 演習プログラム

    16.1 配列の和と部分和

    16.2 ランダム順列の作成

 付録)知識として必要な過去の文法

 

【定員】 10名

【受講料】
       賛助会員  10,800円 (税込)
        一般      21,600円 (税込)
      ※ 受講料は、講習会終了後に請求書をお送りいたします。
        指定の口座に振込みをお願いいたします。

【受講申込方法】

平成28年度FOCUS主催講習会受講申込書兼承認通知書」をダウンロードし、必要事項を記入いただき、

電子メール にてお送りください。

  

☆申込にあたっての留意事項☆ 

※FOCUSスパコンの利用については、日本国政府等が定める「輸出貿易管理令」等により、

スーパーコンピュータ利用の制限が適用されない人員かつ日本国内の居住者のみが利用資格を持ちます。

FOCUSスパコンアカウントをお持ちでない方は、「居住者確認」(申込書にチェックを入れてください。)を行い、

運転免許書、旅券等の身分証明書の写しをご提出ください。

 

※詳細は下記の規程、約款をご参照下さい。

FOCUSスパコン講習会用アカウント利用規程

公益財団法人計算科学振興財団スーパーコンピュータシステム利用契約約款

  
 

【受講申込締切】 講習会開催3業務日前 AM10:00

  

【お問合せ】     業務運用グループ (unyo[at]j-focus.or.jp([at]を@に変更してください))まで。


PDF版 FOCUSスパコン利用の手引き

$
0
0

 ↑ここをクリックしてください


Viewing all 874 articles
Browse latest View live