chef-lctp/presentation/presentation.md

12 KiB

Linux Cluster in Theorie und Praxis

Konfigurationsmanagement Chef - Eine praktische Einführung

von Jörg Thalheim

4. März 2014

Penguin

s5245332@mail.zih.tu-dresden.de

Note:

  • Vorstellen
  • Thema

Inhaltsübersicht

  • Was ist Konfigurationsmanagement
  • Was ist Chef/Puppet
  • Einführung in Chef
  • Tests
  • Demo

Note:

  • Vortrag hier mal die wichtigsten Punkte kurz im Überblick
  • Wozu brauche ich Chef und andere Konfigurationsmanagements
  • Danach Vergleich der 2 Rivalen Chef/Puppet
  • Zeige wie Chef funktioniert
  • Wie sieht der Arbeitsablauf beim Entwickeln mit Hilfe von Tests aus
  • Zum Schluss: Ergebnis meiner Abschlussaufgabe - Einrichtung von Netzwerkdiensten mit Chef

Was ist Konfigurationsmanagement?

  • Konfigurationsmanagement
  • Beispiele: Chef, Puppet, Salt, Ansible, CFEngine
Chef Puppet Salt Ansible CFEngine

Note:

  • in der Praxis mehr Knoten
  • Teams mit wechselnde Mitarbeiter, geografisch verteilt
  • Dokumentation veraltet schnell
  • sowohl bestehende Knoten müssen aktuell gehalten werden, als auch neue eingerichtet
  • Häufig Shell-Skripte für Automatisierung: -> schnell komplex und schlecht maintainbar, -> häufig nicht portable und langsam
  • Problem wird durch Konfigurationsmanagements gelöst. eingehen.
  • Hier ein paar Beispiele gelistet: -> Puppet/Chef
  • Grundidee:
    • Zustand durch Konfigurationsdatei/Sprache beschrieben
    • Konfigurationsmanagement: Herstellung des Zustands.

Was ist Chef/Puppet?

Kriterium Chef Puppet
Programmiersprache Ruby Ruby
Konfigurationsprache Ruby eigene DSL (Ruby)
Paradigma Prozedural Model-Driven
Community 11,270 Repositories auf Github[1][1] 13.020 Repositories auf Github[2][2]
kommerzieller Support

Note:

  • Beide Projekte sind in Ruby geschrieben.
  • Chef: Konfigurations in Ruby
  • Puppet: eine auf Puppet optimierte, vereinfachte Sprache -> einfacher für Einsteiger und Nicht-Programmieren -> Grund für manche Firmen -> wird um Umschulung zu sparen -> weniger flexible als Ruby (Grund bei Facebook, mehre Cluster mit mehr als 10.000 Nodes mit Chef provisionier)
  • Während die Regeln und Beschreibung in Chef standartmäßig in der Reihenfolge abgearbeitet wird in der sie geladen werden, sortiert Puppet diese um. In beiden kann die Reihenfolge durch Spezifikation von Abhängigkeiten umsortiert werden (Später ein Beispiel)
  • Puppet: eigene Sprache -> komplexere Codebasis
  • Um die Größe der Community abzuschätzen (schwierig): Suchtreffer für Repositories bei Github
  • Alter(Puppet) > Alter(Chef)
  • Hinter beiden Projekten stehen Firmen, Weiterentwicklung des Produkt, bieten Support und Hosting an
  • Resume: Ähnliche Projekte, lösen das gleiche Problem auf unterschiedliche Weise

Einführung in Chef

Chef-Einführung: Grundbegriffe

  • Node, z.B.: node100.tu-dresden.de
  • Role, z.B.: headnode, ldap
  • Cookbook, z.B. slurm
  • Recipe, slurm::slurmctld oder slurm::slurmd
  • Resource, z.B.: package["slurm"], template["/etc/slurm.conf"], service["slurmctld"]

Note:

  • Zunächst ein paar wichtige Begriffe:
  • chef: engl. für Koch
  • viele Begriffe vom Kochen abgeleitet
  • Jede Maschine wird in chef Node genannt.
  • Nodes können Rollen zugewiesen werden, um welche bestimmte Aufgaben und Attribute zusammenfassen.
  • Die grundlegende Verwaltungseinheit ist das cookbook. Ein cookbook beschreibt alles was eingerichtet und konfiguriert werden muss um eine bestimmte Aufgabe zu erledigen. z.B. dem Einrichten des Batchsystems slurm
  • In einem cookbook können wiederum mehrere Recipes enthalten sein, um bestimmte Unteraufgaben zu erfüllen. So könnte im Falle von slurm, auf der Headnode das Recipe für den Slurm-Kontrolldaemon zugewiesen werden, während auf dem Computenodes jeweils ein slurmd eingerichtet wird.
  • In einem Recipe werden wiederum verschiedene Resourcen beschrieben.
  • chef überprüft, bei jeder Resource, ob diese in dem gewünchten Zustand ist. Dabei ist für jede Resource definiert, wie man vom aktuellen Zustand in den gewünschten Zustand kommt.
  • Im Falle des Slurmctld könnten das z.B.:
    • das Packet slurm, welches installiert werden soll
    • die Konfiguration /etc/slurm.conf
    • der Dienst slurmctld, welcher gestartet werden soll.

Chef-Einführung: Aufbau eines Cookbook

▾ modules/
  ▾ attributes/
      default.rb
  ▾ files/
    ▾ default/
        modules-load.conf
        modules-load_header
  ▸ libraries/
  ▾ providers/
      default.rb
      multi.rb
  ▾ recipes/
      config.rb
      default.rb
      install_attributes.rb
  ▾ resources/
      default.rb
      multi.rb
  ▾ templates/
    ▾ default/
        modules.conf.erb
    metadata.json
    metadata.rb
    Rakefile
    README.md

Note:

  • Hier ein Beispiel, wie ein cookbook aufgebaut ist.
  • modules cookbook: Linux Kernel Module nachladen, maintained auf github
  • Verzeichnisstruktur vorgeben - Vorteil man findet sich in neuen Cookbooks sofort zu recht
  • Für das entwickeln: Editor mit Verzeichnisfunktion empfohlen
  • hier nochmal kurz ein paar wichtige Verzeichnisse:
    • attributes: setzt Standartwerte für das Cookbook, können von Roles/Nodes oder anderen Cookbooks überschrieben werden
    • resourcen & providers: Chef liefert schon eine Menge sinnvoller Resourcen mit, man kann in seinem cookbooks weitere erstellen, in diesem Fall - modules resource mit der man in anderen cookbooks bestimmte kernel module laden kann
    • recipes: enthält die genannten Recipes, wenn man nichts an gibt wird die default.rb geladen
    • files: Im files-Verzeichnis können statische Konfigurations-Dateien abgelegt werden
    • templates: meistens jedoch will Konfigurationsdateien dynamisch generieren - dazu mit Templates man mithilfe mit der Markupsprache ERB generieren, vergleichbar mit erzeugen von Webseiten, gleich ein Beispiel dazu

Chef-Einführung: Code-Beispiel

# attributes/default.rb
default.ntp.server = "de.pool.ntp.org"
default.ntp.subnets = ["::1", "127.0.0.1"]
# recipes/default.rb
package 'ntp'

template "/etc/ntp.conf" do
  owner "root"
  group "root"
  source "ntp.conf.erb"
  notifies :restart, "service[ntp]"
end

service "ntp" do
  action [:enable, :start]
end

Note:

  • das beliebte Hello-World für Provisionierungssysteme: Einrichten eines NTP-Servers
  • Hier ein Beispiel, welches ich für die Abschlussaufgabe geschrieben habe
  • attribute: In der Attribute-Datei - Standwerte für ntp: upstream server, subnets auf dem ntp lauscht

Chef-Einführung: Code-Beispiel

# recipes/default.rb
package 'ntp'

template "/etc/ntp.conf" do
  owner "root"
  group "root"
  source "ntp.conf.erb"
  notifies :restart, "service[ntp]"
end

service "ntp" do
  action [:enable, :start]
end
# templates/default/ntp.conf.erb
# Crontab for <%= @node.name %> managed by Chef. Changes will be overwritten.
server <%= @node.ntp.server %>

restrict default noquery nopeer
<% @node.ntp.subnets.each do |net| -%>
  restrict <%= net %>
<% end -%>

driftfile /var/lib/ntp/ntp.drift

Note:

  • recipe:
    • package: Packet per apt installieren
    • template: Konfiguration aus template generieren
    • zum Schluss: Dienst aktivieren und starten
    • hier Abhängigkeiten zwischen Resourcen, wenn Template sich ändert -> NTP neustarten
  • template:
    • Beispiel für ERB-Template
    • Tags -> Ruby-Code, wird interpoliert
    • Verzweigungen und Schleifen möglich

Tests

I don't always test my code

Note:

  • Infrastruktur: schwierig zu testen, viele externe Abhängigkeiten, langsam
  • Ruby: dynamische Programmiersprache -> Tippfehler, keine Compilerwarnung beim Refactoring
  • 2 Testframeworks angeschaut

Tests: Chef Spec

# spec/cookbooks/ntp_spec.rb
require_relative '../spec_helper'

describe 'ntp::default' do
  let(:chef_run) do
    ChefSpec::Runner.new do |node|
      subnets = ["::1", "127.0.0.1",
        "172.28.128.0 mask 255.255.255.0 nomodify notrap nopeer"]
      node.set["ntp"]["subnets"] = subnets
    end.converge(described_recipe)
  end

  it "should setup ntp" do
    chef_run.should install_package("ntp")
    chef_run.should render_file("/etc/ntp.conf").with_content("172.28.128.0")
  end
end

Note:

  • Chef: 2 Phasen der Ausführung: Converging und eigentliche Ausführungsphase
  • Converging: Einlesen aller Resourcen -> Abhängigkeitsbaum
  • Chefspec: Nur Convergingphase -> Vorteil: sehr schnell (1s), keine Abhängigkeiten beim Testen außer Chef -> Nachteil: es wird nichts ausgeführt
    • gut für schnelle Validierung, Testen vom Zusammenspiel verschiedener Module, einfache Logik testen, Tippfehler
  • chef_run: Attribute des Nodes
  • it-block: Eigentliche Assertions Chefspec Geschwindigkeit zeigen:
  • bundle exec rspec spec

Tests: Minitest Chef Handler

# ntp/files/default/test/default_test.rb
require 'minitest/spec'

describe_recipe 'ntp::default' do
  it "starts the ntp daemon" do
    assert_sh("service ntp status")
  end
  it "should sync the time" do
    assert_sh("ntpq -p")
  end
end

Note:

  • Minitest: werden nach jedem Deployment gestartet -> Integrationstests
  • Ähnliche Healtschecks wie bei Monitoringsystemen oder unserem Test während des Praktikum -> Benachrichtung via Chefhandler möglich z.B. per Email, Jabber, ...

Demo

Note:

  • Abschlussaufgabe: Einrichten von 2 beliebigen Netzwerksdiensten wie im Praktikum
  • In meinen Fall: NTP, Dns mit Bind, DHCP
  • Vagrant: Starten einer Headnode: mehre Computenodes bekommen über das interne Netzwerk per DHCP eine IP, nutzen das DNS und NTP des Headnode, Headnode als Router Vorbereitung
  • ssh-add -d # SSH-Schlüssel löschen
  • vagrant up node0.lctp
  • vagrant up node1.lctp
  • vagrant up node2.lctp --no-provision
  • vagrant provision node2.lctp --provision-with shell Ablauf:
  • Headnode: Schon provisioniert node0:
    • vagrant ssh node0.lctp
    • ip a
    • service isc-dhcp-server statu
    • ntpq -p
    • dig node0.lctp @localhost
    1. Computenode: provisioniert node0:
    • vagrant ssh node1.lctp
    • ip a
    • ip route
    • ntpq -p
    1. Computenode: neu provisionieren
    • auskommentieren
    • vagrant up node2.lctp
    • vagrant: Entwicklungsumgebung mit der gleichen Konfiguration wie Production einrichten
    • besonderheiten chef-solo/chef-server
    • minitests zeigen
    • Fehlermeldung -> vagrant
    • ntpq -p
    • mtr 8.8.8.8
  • Headnode verkonfigurieren -> erneutes Provisioning node0:
    • sudo iptables -L -t na
    • sudo iptables -F -t na
    • sudo iptables -L -t na node2: ping 8.8.8.8 # laufen lassen node0:
    • sudo vi /etc/ntp.conf # server de -> us
    • sudo service bind9 stop
    • vagrant provision node0.lctp # wechseln zu node2
  • Fragen?