ltcp/bericht/bench/bench-hpl.tex

44 lines
1.5 KiB
TeX
Raw Normal View History

\subsection{High Performance Linpack (HPL)}
2014-01-16 13:07:42 +00:00
2014-01-20 13:34:29 +00:00
Der HPL-Benchmark wurde mit folgenden Befehlen durchgeführt:
2014-01-16 13:07:42 +00:00
2014-01-20 13:34:29 +00:00
\shellcmd{source /cluster/software/hpl/load-env.sh} \\
\shellcmd{mpirun -x LD\_LIBRARY\_PATH -np 8 -hostfile allnodes -npernode 2 \textbackslash} \\
\shellcmd{\hspace{1cm} /cluster/software/hpl/run\_hpl > hpl.out}
2014-01-16 13:07:42 +00:00
2014-04-05 15:35:12 +00:00
In der Datei \emph{allnodes} sind die Hostnames der Compute-Nodes hinterlegt.
2014-01-20 13:34:29 +00:00
Beim Basislauf wurde ein maximaler Wert von $3,842 \cdot 10^{-4}$ GFlops mit folgender Konfiguration erreicht:
2014-01-16 13:07:42 +00:00
\begin{lstlisting}
T/V N NB P Q
--------------------------------------
WR00L2L2 35 4 1 4
\end{lstlisting}
2014-04-05 15:35:12 +00:00
Der optimierte Lauf mit der Standard-BLAS-Bibliothek des Systems mit der Konfiguration:
2014-01-16 13:07:42 +00:00
\begin{lstlisting}
T/V N NB P Q
--------------------------------------
WR00C2C2 26208 224 2 8
\end{lstlisting}
2014-01-20 13:34:29 +00:00
erreichte einen Wert von 2,094 GFlops.
Mit der Intel MKL erreichten wir mit folgender Konfiguration:
\begin{lstlisting}
T/V N NB P Q
--------------------------------------
WC01C2C4 26208 128 2 4
\end{lstlisting}
2014-01-20 18:45:53 +00:00
einen Wert von {\bf 4,076 GFlops}.
\subsubsection{Auswertung}
2014-04-05 15:35:12 +00:00
Verglichen mit der theoretischen Floating-Point-Peak-Performance von: \\ $1,6$
2014-04-03 09:37:41 +00:00
GHz $\cdot 2$ CPU-Kerne pro Prozessor $\cdot 2$ Instruktion pro Takt $\cdot 4$
CPUs $ = 25,6$ GFlops \\ erreichten wir also ca. 16 \% der maximal möglichen
Leistung, was in Anbetracht des langsamen Verbindungsnetzwerkes ein akzeptabler
Wert ist.