ltcp/bericht/burnin.tex

97 lines
3.1 KiB
TeX
Raw Normal View History

2013-11-07 11:21:00 +00:00
\section{Burnin}
\label{sub:burnin}
2013-11-07 13:22:33 +00:00
\subsection{Munin}
\label{sub:munin}
Zur Überwachung und Aufzeichnung des Systems während des Burnin haben wir {\tt
2013-11-07 21:19:48 +00:00
munin} eingerichtet. Dieses besteht aus einem Masterprozess, welches die gewünschten
2013-11-07 13:22:33 +00:00
Daten aufzeichnet, und einem Nodeprozess, welches die Daten bereitstellt. Die
Darstellung erfolgt über ein Webinterface, welches die Graphen aus einer
2013-11-07 21:19:48 +00:00
{\tt rddtool}-Datenbank generiert. Auf dem Headnode haben wir den Masterprozess
installiert:
2013-11-07 13:22:33 +00:00
\shellcmd{pacman -S munin}
Auf dem Computenode die Nodekomponente:
\shellcmd{pacman -S munin-node}
Für das Webfrontend richteten wir darüber hinaus den Webserver {\tt nginx} ein:
\shellcmd{pacman -S nginx}
Dieser kommuniziert über fastcgi mit Munin um die Graphen
generieren zu lassen. Die nötige Konfiguration befindet sich in {\tt
aufgabe2.5/nginx}. Die fastcgi-Prozesse von Munin starteten wir mit folgenden
2013-11-07 13:22:33 +00:00
Befehl:
\shellcmd{systemctl enable munin-graph.socket munin-html.socket}
\shellcmd{systemctl start munin-graph.socket munin-html.socket}
Die ab zu fragenden Nodes werden in die {\tt munin.conf} eingetragen ({\tt
aufgabe2.6/munin.conf}).
2013-11-07 13:22:33 +00:00
Da die Anzahl unserer Nodes verhältnismäßig klein ist, haben wir uns für die
Aktualisierung der Leistungsdaten via {\tt munin-cron} entschieden:
\shellcmd{crontab /etc/munin/munin-cron-entry -u munin}
Munin bringt bei der Installation schon eine Vielzahl von Plugins mit. Manche
von diesen benötigen wiederum für die Datenerfassung andere Programme. Auf dem
2013-11-08 09:14:49 +00:00
Computenode haben wir folgende Plugins aktiviert:
\begin{itemize}
\item cpu
\item diskstate
\item hddtemp
\item load
\item memory
\item sensors\_temp
\end{itemize}
Zum Belasten des Systems über 48h verwendeten wir {\tt stress} mit jeweils 4 Workern für jeweils CPU-, IO-, Speicher- und Festplatten-Auslastung.
\pagebreak
\subsubsection{Graphen}
2013-11-07 13:22:33 +00:00
2013-11-07 11:21:00 +00:00
\begin{itemize}
\item CPU-Temperatur: \\\\
\includegraphics[width=15cm]{bilder/temp.png}
\item CPU-Auslastung: \\\\
\includegraphics[width=15cm]{bilder/cpu.png}
\pagebreak
\item Speicher-Auslastung: \\\\
\includegraphics[width=15cm]{bilder/memory.png}
\item Festplatten-Temperatur: \\\\
\includegraphics[width=15cm]{bilder/hddtemp.png}
\pagebreak
\item Festplatten-Auslastung: \\\\
\includegraphics[width=15cm]{bilder/hdd.png} \\\\
\includegraphics[width=15cm]{bilder/hddio.png}
2013-11-07 13:22:33 +00:00
\end{itemize}
2013-11-08 09:14:49 +00:00
\pagebreak
\subsubsection{Auswertung}
Die CPU-Auslastung ist wie erwartet auf 400\% (Dual-Core mit Hyperthreading) gestiegen und über 48h konstant geblieben. Die CPU-Temperatur ist dabei von 65 bzw. 70$^\circ$ C auf ca. 79 bzw. 81$^\circ$ C gestiegen und gegen Ende leicht abgefallen. Die Speicher-Auslastung ist von 200MB auf durchschnittlich 1.65GB angestiegen. Die Festplatten-Temperatur stieg von 47 auf 53$^\circ$ C und fiel 4h vor Burnin-Ende auf 52$^\circ$ C ab.\\
Abschließend ist zu sagen, dass der Compute-Node den Burnin ohne nennenswerte Auffälligkeiten in Auslastung und Temperaturänderungen durchlaufen hat.
\subsubsection{Shutdown}
Nach dem Burnin sollte der Compute-Node automatisch heruntergefahren werden. Dazu nutzten wir folgenden Shell-Befehl:
\shellcmd{shutdown -P 2880}
2013-11-21 09:38:15 +00:00
\pagebreak