btrfs – Ein Teilerfolg

Ich habe mich schon längere Zeit nach einer dynamischen Alternative zum bisher primär von mir eingesetzten ZFS umgeschaut, da mir die physischen Platten hier zu statisch zugeordnet sind.

Was heißt das im Detail? Ich hatte bisher ein Pool aus 3x (3x 3TB Platte im Z1), also 18TB Netto. Der Plan für die Zukunft war dann, die Platten durch größere auszutauschen und im Idealfall sogar weniger Spindeln zu benutzen.

Hier kommt das Problem: Es ist nicht möglich, einen der Z1 Verbünde zu entfernen oder um Platten zu vergrößern / verkleinern, es lassen sich lediglich Platten (durch größere) 1:1 tauschen oder weitere Verbünde in den Gesamtpool aufzunehmen.

Schöner macht es CEPH, was ich mir als erstes angesehen habe: Dynamisch Platten rein oder raus, unterschiedliche Größen, alles kein Thema. Das definierte Level an Verfügbarkeit wird aufrecht erhalten.

Nachteil bei CEPH: Es ist auch einen Aufbau über Systemgrenzen hinweg ausgelegt, wenn auch anders realisierbar, und der Einsatz von Erasure Coding, wie im Raid5, ist nicht ganz trivial.

Andere Alternative: BTRFS

Das System ist wie ZFS ein CoW Dateisystem, deckt meine Anforderungen ab und inzwischen ist der Raid5 Code für meine Ansprüche an Verfügbarkeit ausreichend stabil. Für alles andere gibt es ein Backup *räusper*.

Aktuelle fahre ich jetzt 4x 8TB im Raid5.

Leider gibt es hier aber ein paar Einschränkungen, die mir im Daily Use gegenüber ZFS fehlen:

  • Die Größe von Snapshots lässt sich nicht „elegant“ anzeigen
  • Quotas ziehen sehr massiv an der Performance, sehr sehr massiv!!!
  • „Viele“ Snapshots ziehen ebenfalls viel Performance. Was als „viele“ definiert wird? Keine Ahnung…
  • SSD Caching Tier

Ich werde dem Dateisystem trotzdem noch etwas Zeit geben, wie sich gerade zeigt ist der Support von Samba zu btrfs mittels vfs ganz gut (Shadow Copy, Server Side Copy Offload).

Es wird in ein paar Wochen bestimmt nochmal ein Feedback von mir kommen.

Intel CPU und P-State

Ich hab etliche Zeit damit verbraucht, herauszufinden, warum der i3-2120 in meinem Fileserver nicht tiefer als C1E im P-State geht.

Heute bin ich eher durch Zufall auf des Rätsels Lösung gekommen:

https://bugzilla.kernel.org/show_bug.cgi?id=77361

Jesse Brandeburg 2014-06-04 21:51:54 UTC
I believe this is by design, the e1000e hardware has issues with jumbo frame reception if the processor enters a long latency sleep state.  Jumbo frames require the cpu to wake up and handle the packet reasonably fast, which is why the code is like it is.

e1000e is calling kernel interfaces to implement the C-state limits.

In meinem Filer wird auch der e1000e Treiber genutzt, und bisher waren Jumboframes aktiviert. Abgeschaltet, Reboot, C6… Dabei wollte ich gerade schon Testweise mal von 4 auf 2 Ram-Dimms gehen. 😀

Im parallel laufenden Hypervisor kommt „zum Glück“ eine andere Nic zum Einsatz, ob das jetzt mit der Realtek allerdings wirklich besser ist lasse ich mal  dahin gestellt.

Manches mal ist es gar nicht so einfach, des Rätsels Lösung zu finden, nur nie aufgeben.

On-Premise vs Cloud

Aktuell steht bei mir aufgrund des Alters der Festplatten die Überlegung an, den Storage Server ein Upgrade zu verpassen. Aktuell sind 9x 3TB Western Digital in einer ZFS 3×3 Z1 (Raid 50) Kombination verbaut, etwa 18TB Netto.

Alle hängen an einem LSI 9211 16-Port SAS HBA, dazu noch eine Samsung 120GB SSD als Swap sowie L2 und ARC Cache für das ZFS. Das System liegt auf einem ZFS Mirror aus 2x 120GB Kingston SSD.

Die (On-Premise) Überlegungen sind:

5x HGST Deskstar NAS v2 6TB in einem Z1, etwa 24TB Netto
   --> 245€ pro Platte --> 1225€ in Summe
4x HGST Deskstar NAS 8TB  in einem Z1, etwa 24TB Netto
   --> 300€ pro Platte --> 1200€ in Summe
Dazu käme noch: 
   --> Board - Fujitsu D3417-B, 150€
   --> CPU - Intel Pentium G4400, 62€
   --> Ram - 2x Kingston ValueRAM DIMM 16GB, 2x 140€

In Summe auch nochmal fast 500€.

Stromkosten liegen mit gemittelt 150w Verbrauch im 24/7 Betrieb etwa bei 21,60€/Monat oder 262,80€ im Jahr.

Als Alternative dazu gibt es auch zu guten Preisen Server in der Cloud, also Dedicated Root Server, die über ähnliche Spezifikationen verfügen. On-Premise vs Cloud weiterlesen

LineageOS – Ein erster Blick

Ich bin seit gut 2 Wochen auf LineageOS unterwegs, nachdem ich vorher schon lange CyanogenMod benutzt habe.

Im Einsatz ist es auf einem Samsung Galaxy Note 10.1 2014 LTE (lt03lte) und einem LG G4 (h815), bei beiden läuft es bisher ohne großen Problemen.

Anfangs hat et etwas gedauert, bis ich auf der Homepage http://lineageos.org/ die Firmware gefunden habe: Community –> Wiki –> devices list. Noch ist das Wiki recht leer, aber nach und nach füllt es sich. Als Anleitung gibt es häufig noch Links zu den archivierten Cyanogen-Wiki-Pages.

Inzwischen geht es auch einfacher über https://download.lineageos.org/

Auf dem Note 10.1 läuft soweit alles Rund, nicht mal die Amazon Prime App hat Probleme gemacht 🙂 Auf dem G4 gibt es noch eine Macke, die ich schon unter Cyanogen hatte: Die Kamera ist recht Zickig, egal ob die Google oder Cyanogen Version. Bilder mit Blitz sind häufig trotz Auslösen einfach nur schwarz und die App hängt sich häufig auf. Ich hoffe, hier wird es noch Besserung geben. Die Kamera des G4 ist eigentlich verdammt gut, wäre schade drum.

Jetzt fehlt nur noch eine passende Version für mein HTC HD2 sowie Motorola Atrix, das werden aber wohl Träume bleiben. Die Geräte sind einfach schon zu alt, schwer da noch passende Kernel Treiber zu bekommen.

Ich bin gespannt wie es weiter geht, hoffe auf eine lange Zukunft.

PS: Wenn jemand über die Update-App ein Update geladen hat uns es dann im Recovery sucht, der Pfad ist (Stand 16.02.2017) /data/data/org.lineageos.updater/app_updates.

ESXi 5.x: Update eines Standalone-Hosts

Wer nur einen Standalone ESXi Host betreibt und kein vSphere mit Update Manager hat kann den Host auch via SSH recht einfach auf den aktuellen Patchstand bringen.

Die folgenden Schritte sind hierfür nach der Aktivierung und Anmeldung mittels SSH nötig:

# Ggfs die Firewall für ausgehenden HTTP öffnen:
esxcli network firewall ruleset set -e true -r httpClient
# Depot Inhalt anzeigen und filtern:
esxcli software sources profile list -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml | grep ESXi-5.5.0-2014...
# Die Updates aus dem Online Depot installieren:
esxcli software profile update -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml -p ESXi-5.5.0-20140302001-standard
# Danach den Host neu starten
reboot

Es ist hierbei natürlich nötig, das der Host DNS Auflösen kann und direkt in das Internet kommt um sich die Update Pakete von VMware zu laden.

ESXi 5.x: Update eines Standalone-Hosts weiterlesen