chef-lctp/presentation/presentation.md

11 KiB

Linux Cluster in Theorie und Praxis

Konfigurationsmanagement Chef - Eine praktische Einführung

von Jörg Thalheim

5. März 2014

Penguin

s5245332@mail.zih.tu-dresden.de

Inhaltsübersicht

  • Was ist Konfigurationsmanagement
  • Was ist Chef/Puppet
  • Einführung in Chef
  • Tests
  • Demo

Was ist Konfigurationsmanagement?

  • Konfigurationsmanagement
  • Beispiele: Chef, Puppet, Salt, Ansible, CFEngine

Chef: Puppet Salt Ansible CFEngine

Note:

  • in der Praxis mehr Knoten
  • wechselnde Admins
  • Dokumentation veraltet schnell
  • sowohl bestehende Knoten müssen aktuell gehalten werden, als auch neue eingerichtet
  • Komplexe Shell-Skripte sind schlecht maintainbar, häufig nicht portable und langsam
  • Problem wird durch Konfigurationsmanagements gelöst.
  • Grundidee: Infrastruktur wird durch eine Konfigurationsdatei oder Sprache beschrieben und das Konfigurationsmanagement, versucht diesen Zustand herzustellen.
  • Hier ein paar Beispiele, Im folgenden werde ich näher auf chef und Puppet eingehen.

Was ist Chef/Puppet?

Kriterium Chef Puppet
Programmiersprache Ruby Ruby
Konfigurationsprache Ruby eigene DSL (Ruby)
Paradigma Prozedural Model-Driven
Codezeilen 108,726[1][1] 353,651[2][2]
Community 11,270 Repositories auf Github[3][3] 13.020 Repositories auf Github[4][4]
kommerzieller Support

Note:

  • Beide Projekte sind in Ruby geschrieben.
  • Chef: Die Konfigurations wird in Ruby geschrieben.
  • Puppet: Benutzt eine auf Puppet optimierte, vereinfachte Sprache -> Wird von Anfängern und Nicht-Programmieren als einfacher empfunden -> Grund warum es von manchen Firmen bevorzugt wird um Umschulung zu sparen (mittlerweile nicht mehr komplett wahr, da Teile jetzt auch in Ruby geschrieben werden können) -> aber weniger flexible als Ruby (Grund bei Facebook, 10000 Nodes mit Chef provisionier)
  • Während die Regeln und Beschreibung in Chef standartmäßig in der Reihenfolge abgearbeitet wird in der sie geladen werden, sortiert Puppet diese um. In beiden kann die Reihenfolge durch Spezifikation von Abhängigkeiten umsortiert werden (Später ein Beispiel)
  • Puppet: eigene Sprache -> komplexere Codebasis
  • Um die Größe der Community abzuschätzen (schwierig): Suchtreffer für Repositories bei Github
  • Alter(Puppet) > Alter(Chef)
  • Hinter beiden Projekten stehen Firmen, welche das Produkt weiterpflegen, Support anbieten und Hosting anbieten

Einführung in Chef

Chef-Einführung: Grundbegriffe

  • Node, z.B.: node100.tu-dresden.de
  • Role, z.B.: headnode, ldap
  • Cookbook, z.B. slurm
  • Recipe, slurm::slurmctld oder slurm::slurmd
  • Resource, z.B.: package["slurm"], template["/etc/slurm.conf"], service["slurmctld"]

Note:

  • Zunächst ein paar wichtige Begriffe:
  • In chef sind viele Begriffe vom Kochen abgeleitet (daher auch chef - Koch)
  • Jede Maschine wird in chef Node genannt.
  • Nodes können Rollen zugewiesen werden, um welche bestimmte Aufgaben und Attribute zusammenfassen.
  • Die grundlegende Verwaltungseinheit ist das cookbook. Ein cookbook beschreibt alles was eingerichtet und konfiguriert werden muss um eine bestimmte Aufgabe zu erledigen. z.B. dem Einrichten des Batchsystems slurm
  • In einem cookbook können wiederum mehrere Recipies enthalten sein, um bestimmte Unteraufgaben zu erfüllen. So könnte im Falle von slurm, auf der Headnode das Recipe für den Slurm-Kontrolldaemon zugewiesen werden, während auf dem Computenodes jeweils ein slurmd eingerichtet wird.
  • In einem Recipe werden wiederum verschiedene Resourcen beschrieben.
  • chef überprüft, bei jeder Resource, ob diese in dem gewünchten Zustand ist. Dabei ist für jede Resource definiert, wie man vom aktuellen Zustand in den gewünschten Zustand kommt.
  • Im Falle des Slurmctld könnten das z.B.:
    • das Packet slurm, welches installiert werden soll
    • die Konfiguration /etc/slurm.conf
    • der Dienst slurmctld, welcher gestartet werden soll.

Chef-Einführung: Aufbau eines Cookbook

▾ modules-0.2.0/
  ▾ attributes/
      default.rb
  ▾ files/
    ▾ default/
        modules-load.conf
        modules-load_header
  ▸ libraries/
  ▾ providers/
      default.rb
      multi.rb
  ▾ recipes/
      config.rb
      default.rb
      install_attributes.rb
  ▾ resources/
      default.rb
      multi.rb
  ▾ templates/
    ▾ default/
        modules.conf.erb
    metadata.json
    metadata.rb
    Rakefile
    README.md

Note:

  • Hier ein Beispiel, wie ein cookbook aufgebaut ist.
  • modules cookbook: Linux Kernel Module nachladen, maintained auf github
  • Verzeichnisstruktur vorgeben - Vorteil man findet sich in neuen Cookbooks sofort zu recht
  • Für das entwickeln: Editor mit Verzeichnisfunktion empfohlen
  • hier nochmal kurz ein paar wichtige Verzeichnisse:
    • attributes: setzt Standartwerte für das Cookbook, können von Roles/Nodes oder anderen Cookbooks überschrieben werden
    • resourcen & providers: Chef liefert schon eine Menge sinnvoller Resourcen mit, man kann in seinem cookbooks weitere erstellen, in diesem Fall - modules resource mit der man in anderen cookbooks bestimmte kernel module laden kann
    • recipies: enthält die genannten Recipies, wenn man nichts an gibt wird die default.rb geladen
    • files: Im files-Verzeichnis können statische Konfigurations-Dateien abgelegt werden
    • templates: meistens jedoch will Konfigurationsdateien dynamisch generieren - dazu mit Templates man mithilfe mit der Markupsprache ERB generieren, vergleichbar mit erzeugen von Webseiten, gleich ein Beispiel dazu

Chef-Einführung: Code-Beispiel

# attributes/default.rb
default.ntp.server = "de.pool.ntp.org"
default.ntp.subnets = ["::1", "127.0.0.1"]
# recipies/default.rb
package 'ntp'

template "/etc/ntp.conf" do
  owner "root"
  group "root"
  source "ntp.conf.erb"
  notifies :restart, "service[ntp]"
end

service "ntp" do
  action [:enable, :start]
end

Note:

  • das beliebte Hello-World für Provisionierungssysteme: Einrichten eines NTP-Servers
  • Hier ein Beispiel, welches ich für die Abschlussaufgabe geschrieben habe
  • attribute: In der Attribute-Datei - Standwerte für ntp: upstream server, subnets auf dem ntp lauscht
  • recipe:
    • package: Packet per apt installieren
    • template: Konfiguration aus template generieren - hier Abhängigkeiten zwischen Resourcen, wenn Template sich ändert -> NTP neustarten
    • zum Schluss den Dienst aktivieren und starten
  • template:
    • Beispiel für ERB-Template
    • Tags -> Ruby-Code, wird interpoliert
    • Verzweigungen und Schleifen möglich

Chef-Einführung: Code-Beispiel

# templates/default/ntp.conf.erb
# Crontab for <%= @node.name %> managed by Chef. Changes will be overwritten.
server <%= @node.ntp.server %>

restrict default noquery nopeer
<% @node.ntp.subnets.each do |net| -%>
  restrict <%= net %>
<% end -%>

driftfile /var/lib/ntp/ntp.drift

Tests: Chef Spec

# spec/cookbooks/ntp_spec.rb
require_relative '../spec_helper'

describe 'ntp::default' do
  let(:chef_run) do
    ChefSpec::Runner.new do |node|
      subnets = ["::1", "127.0.0.1",
        "172.28.128.0 mask 255.255.255.0 nomodify notrap nopeer"]
      node.set["ntp"]["subnets"] = subnets
    end.converge(described_recipe)
  end

  it "should setup ntp" do
    chef_run.should install_package("ntp")
    chef_run.should render_file("/etc/ntp.conf").with_content("172.28.128.0")
  end
end

Note:

  • Infrastruktur: schwierig zu testen, viele externe Abhängigkeiten, langsam
  • Ruby: dynamische Programmiersprache -> Tippfehler, keine Compilerwarnung beim Refactoring
  • Chef: 2 Phasen der Ausführung: Converging und eigentliche Ausführungsphase
  • Converging: Einlesen aller Resourcen -> Abhängigkeitsbaum
  • Chefspec: Nur Convergingphase -> Vorteil: sehr schnell (1s), keine Abhängigkeiten beim Testen außer Chef -> Nachteil: es wird nichts ausgeführt
    • gut für schnelle Validierung, Testen vom Zusammenspiel verschiedener Module, einfache Logik testen, Tippfehler
  • chef_run: Attribute des Nodes
  • it-block: Eigentliche Assertions

Tests: Minitest Chef Handler

# ntp/files/default/test/default_test.rb
require 'minitest/spec'

describe_recipe 'ntp::default' do
  it "starts the ntp daemon" do
    assert_sh("service ntp status")
  end
  it "should sync the time" do
    assert_sh("ntpq -p")
  end
end

Note:

  • Minitest: werden nach jedem Deployment gestartet -> Integrationstests
  • Ähnliche Healtschecks wie bei Monitoringsystemen oder unserem Test während des Praktikum -> Benachrichtung via Chefhandler möglich z.B. per Email, Jabber, ...

Demo

Note:

  • Abschlussaufgabe: Einrichten von 2 beliebigen Netzwerksdiensten wie im Praktikum

  • In meinen Fall: NTP, Dns mit Bind, DHCP

  • Vagrant: Starten einer Headnode: mehre Computenodes bekommen über das interne Netzwerk per DHCP eine IP, nutzen das DNS und NTP des Headnode, Headnode als Router Ablauf:

  • Headnode: Schon provisioniert

    1. Computenode: provisioniert
    1. Computenode: neu provisionieren
  • Headnode verkonfigurieren -> erneutes Provisioning

  • Fragen?