FLOW-3D MP Ver.5.0


FLOW-3D_MP_112 FLOW-3D_MP_61 FLOW-3D_MP_6 FLOW-3D_MP_5.png

FLOW-3D/MP: hybridHPC(High Performance Computing:高性能コンピューティング)

FLOW-3D/MP version 5.0を用いることで、エンジニアはマルチコア64ビット・クラスタ上でソフトウェアのスケーラビリティを活用することができます。FLOW-3Dユーザは、Linux HPCクラスタにアクセスして、FLOW-3D/MPを使って過渡的な自由表面問題の解析結果を得ることができます。version 5.0はFLOW-3D v10.1のハイブリッド並列計算版です。Message Passing Interface(MPI)とOpenMPを使って並列化を行います。MPIが分散メモリによる領域分解系列(粗い分割)に基づくのに対して、OpenMP系列は共有メモリ構造(細かい分割、もしくはループ・レベルの並列構造)に基づきます。物理的な領域はブロックまたはMPI領域に分解されます。それから、MPIプロセスと関連付けられ、クラスタ上でノードに割り当てられます。各ノード内で、MPIプロセスはスレッドを生成し、OpenMP命令を使ってマルチスレッドの計算を実行します。FLOW-3D/MP v5.0の物理モデルと数値的な手法は、FLOW-3D v10.1に基づきます。

hybridMPI(分散メモリ型)/OpenMP(共有メモリ型)並列化:

MPI とOpenMPをハイブリッドに利用することでメッシュブロックを少なくし、通信とMPIオーバーヘッドを削減します。

  • 計算ノード上のMPIと各計算ノード内のOpenMPをハイブリッド使用
  • 2つの並列化アプローチにより高いスケーラビリティを実現
  • より少ないメッシュブロック、より少ない通信とMPIオーバーヘッド
image1gearbox_small flow3d_flow-3d_mp clustor

FLOW-3D/MP v5.0ハイライト

MP5

  • FLOW-3D v10.1と同じリリースレベル
    1. version10.1の全物理モデルに対応
    2. バージョンに依存しないリスタートおよびポスト処理
  • FSI/TSE モデルの完全並列化
  • 最新のマルチコアアーキテクチャへの最適化
  • 自動分割ツール(Auto Decomposition Tool)が負荷バランスを改善。
    ブロック間のメッシュ不整合/補間を排除。
  • パフォーマンス、精度、収束性の改善
  • MPI – OpenMP ハイブリット型の並列処理

 

スケーリング比較: hybrid MPI/OpenMP vs SMP

FLOW-3D SMP VS MP 燃料スロッシング(圧力分布)

FLOW-3D SMP VS MP 燃料スロッシング(圧力分布)

最新版FLOW-3D/MP v5.0を使用し、FLOW-3Dユーザが日常的に取り組む過渡現象の自由表面流れの典型例として、下記4ケースのベンチマークテストを行いました。この テストでは、16コア以上を使用し、解析に使用したパフォーマンスメトリックは、一日(24時間)で実行することができたシミュレーション回数の合計とし て定義しています。比較のため、8コアの参照データポイントは、FLOW-3Dのバージョン10.1を使用して実行しています。

水理 ピストンショットの高圧鋳造 燃料スロッシング インクジェットノズル
fig1graph1

fig2

graph2

fig3

graph3

fig4

graph4

– 自由表面、重力、
– 空気連行、RNG乱流モデル
– 1460万セル
– 空気巻き込み、欠陥追跡
– キャビテーション、重力、GMO
– 220万セル
– 自由表面、非慣性座標系、
– 重力、電位
– RNG乱流モデル
– 70万セル
– 自由表面、層流粘性モデル、
– 表面張力
– 200万セル
* Intel Xeon E5-2650(Sandy Bridge)プロセッサ、16コア/ノード (8 ~ 64 コア)
* Intel Xeon E5520(Nehalem)プロセッサ、8コア/ノード (128コア)
* SilverStorm 9024 24ポート インフィニバンドDDRスイッチ 最大転送速度:20GBit/s

FLOW-3D/MPのインテルCluster Ready認証

Intel-Cluster-Ready-FLOW-3D-MPIntel社はCluster Ready認定によって、ハードウェア/ソフトウェアの動作をユーザーに保証しています。
Cluster Ready認定を受けたソフトウェアは、Cluster Readyハードウェア上で問題が生じることなく動作します。
FLOW-3D/MP はIntel Cluster Ready認定を受けています。

HPC Advisory Council

HPC_Advisory_logoHPC Advisory Councilはハイパフォーマンスコンピューティング(HPC)のポテンシャルをその利用に結びつけることを目的としています。
新しいユーザーに調査・ 教育・革新・製造などの改善に役立つHPCの機能を伝授し、既存ユーザーには操作に必要な専門知識を提供、
プログラム技術者には並列化に必要なツールを供給しています。またHPCシステム製品の認定や統合を推進しています。
Flow Science社はHPC Advisory Councilに加盟しています。

FLOW-3D/MP 機能比較

FLOW-3D/MP は、以下の環境のワークステーションやクラスタ上で動作します。

Ver.5.0.2 Ver.4.2.1
ソフトウェア Redhat Enterprise Linux (5 または 6)
Suse Linux 11
Redhat Enterprise Linux (4 または 5)
Suse Linux (10 または 11)Windows HPC Server 2008
ネットワーク Gigabitイーサネット
Infinibandクラスタ内の全ノードからアクセス可能な
大規模共有NFSディスク
Gigabitイーサネット
Infinibandクラスタ内の全ノードからアクセス可能な
大規模共有NFSディスク
プロセッサ XeonもしくはOpetronと同等のプロセッサ XeonもしくはOpetronと同等のプロセッサ
MPI
ライブラリソフトウェア
IntelR MPI(インストール時に提供されます) MPICH2-1.4(Gigabit イーサネット)
インテル MPI 4.0(Gigabitイーサネットおよびインフィニバンド)は、リナックス プラットフォーム上でサポートされています。
MS MPIは、Windows HPC Server 2008上でサポートされています。
FLOW-3D
ベースバージョン
Version 10.1 Version 9.4

価格・ライセンス形態などお気軽にお問合せください。information_button_small

^ back to top