Howto: Multiprotokoll NAS Server mit einer EMC² Unity

Hallo zusammen,

ich stecke im Moment in einem kleinen Projekt mit einer Unity.

Der Kunde möchte einen NAS Server einrichten worauf er gleichzeitig mit SMB und NFS zugreifen kann.

Die Anforderung ist eigentlich nicht so kompliziert:

  • Mehrere Windows User müssen auf den Share R/W Zugriff haben.
  • Ein Linux Service-User muss ebenfalls Zugriff via NFS erhalten.

Howto: Multiprotokoll NAS Server mit einer EMC² Unity weiterlesen

Ein paar Gedanken zur Datensicherung

Ich hatte vor einiger Zeit einen interessanten Termin. Das Thema war ein sehr leidiges … „Backup“.

Spannend war, dass alle am Tisch über Backup redeten, aber alle etwas anderes meinten. Es dauerte einige Zeit bis alle vom gleichen sprachen. Praktisch alle hatten unterschiedliche Anforderungen an ihr Backup.

Und nachdem letzte Woche der „World Backup Day“ war, möchte ich hier einen kleinen Fragebogen als Leitfaden bereitstellen:

Ein paar Gedanken zur Datensicherung weiterlesen

EMC² Unity – Thick Provisioning

Letzte Woche wurde ich von einem Kunden gefragt, wie man mit der Unity eigentlich eine „Thick“-LUN anlegt. Das GUI lässt schließlich nur „Thin“-Provisioning zu.

Die Antwort findet man nicht im GUI. Ein möglicher Weg führt aber über das Tool uemcli.exe. Und so wird es gemacht.

EMC² Unity – Thick Provisioning weiterlesen

Docker Volume Mappings

Als Vorbereitung auf einen Beitrag zum Thema Persistent Storage mit dem entsprechenden Netapp-Plugin möchte ich noch kurz darauf eingehen, wie man mit Bordmitteln ein persistentes Storage für einen Container bereitstellen kann.

Braucht man ein persistentes Storage oder nur ein Shared Storage für eine Applikation, welche in einem Docker Container läuft, kommt man fast nicht an Volume Mappings vorbei.

Mit Vollume Mappings kann man auf einem einfache Wege lokale Filesystem-Ressourcen in einem Container verfügbar machen.

Das Volume Mapping ist ähnlich anzuwenden wie das Device Mapping aus meinem letzten Artikel. Man muss lediglich beim startendes Containers die folgende Option mitgeben.

-v /lokales/verzeichnis/:/container/verzeichnis

Wie der Name Volume-Mapping schon verrät, mappt diese Option einfach das Verzeichnis vom Docker-Host in das Zielverzeichnis im Container.

Ein komplettes Kommando könnte so aussehen:

docker run -d -v /mnt/data01/www:/www nginx

„/mnt/data01/www“ könnte zB. eine gemountete LUN oder so sein. Der Ordner „www“ wird direkt als „/www“ im Container präsentiert, wo die Applikation dann entsprechend zugreifen kann.

Sichern sollte man das Verzeichnis am Docker-Host selbst.

Bis demnächst.

 

Liebe Grüße

Falk

Docker Device Mappings

Ich tauche im Moment ins letzte Jahrtausend ab und automatisiere Abläufe, welche nicht über IP Kommunikation abbildbar sind. 🙂

Der erste Pilot dafür lief auf einem Raspberry Pi:


Darauf lief ein Expect-Script, welches sich an der Minicom bediente und automatisch gewisse Sachen ausführte.

Jetzt wollten wir das Ganze auf einen Server bringen und das Ganze funktionierte nicht mehr wie vorher. Nach einiger Recherche kamen wir dahinter, dass am Raspberry eine aktuellere Version der Minicom installiert war.

Am Server läuft CentOs und irgendwie war ich unfähig, die Minicom auf das gleiche Release wie am Pi zu bringen. 🙁

Ich dachte kurz an Docker und schaute, ob man nicht die ttyUSB0 in den Container bringen kann. Ergebnis: ja, man kann. Und es ist einfacher als gedacht:

docker run --device=/dev/ttyUSB0 *Imagename*

Nachher taucht im Container die ttyUSB0 auf. Eigentlich nicht kompliziert, oder?

root@faadd9042d8b:/# ll /dev/tty*
crw-rw-rw- 1 root root   5, 0 Feb 20 08:20 /dev/tty
crw-rw---- 1 root   18 188, 0 Feb 20 08:41 /dev/ttyUSB0

Also schnell ein Ubuntu Image gestartet, die Minicom und Expect entsprechend installiert und schon lief es wieder.

Vielleicht ist es ja für jemanden nützlich …

Nachtrag:
Man kann auch die ttyUSB1 auf ttyUSB0 mappen.

--device=/dev/ttyUSB1:/dev/ttyUSB0

Dh. die ttyUSB1 vom Docker-Host wird im Container als ttyUSB0 nutzbar.

Liebe Grüße

Falk

MCP Cloud Automation mit PowerShell

PowerShell erfreut sich großer Beliebtheit. Fast jeder Admin hatte in den letzten Jahren Berührungspunkte mit dieser Scriptingsprache. Kein Wunder, man kann damit wunderbar automatisieren.

Auch unsere Cloud-Services lassen sich damit administrieren. Aktuell schreibe ich ein kleines Script für das automatische Rollout von Backup-Agents.

Das bringt mich zu diesem Blog-Post, denn ich möchte nur kurz demonstrieren wie schnell man tägliche Tasks mit unseren PowerShell-Modulen automatisieren kann.

Log geht’s.

MCP Cloud Automation mit PowerShell weiterlesen

IT Konferenzen 2017

Ich habe jetzt einmal die Liste der Konferenzen auf 2017 aktualisiert.

Hier also wieder die Liste vom letzten Jahr (Sortierung wertfrei :-))

IT Konferenzen 2017 weiterlesen

Alles neu in 2017!?

Gute Überschrift, aber wie weiter?

Tatsache ist, im letzten Jahr habe ich zu wenig Zeit gefunden mich um diese Seite hier zu kümmern. Gründe gibt es dafür einige, welche aber nicht unbedingt relevant sind. 🙂

Mein Vorsatz in diesem Jahr ist hier sehr aktiv zu werden und weitere Autoren zu finden. Wir haben eine Menge neuer Kollegen in unterschiedlichen Bereichen bekommen. Da wird sich wohl die / der ein oder andere finden lassen.

Meine persönlichen Technologieschwerpunkte des Jahres sollen Stand heute (4.1.2017) dir folgenden sein:

  • Automatisierung was nur so geht. Wir haben in den letzten Monaten extreme Fortschritte in diesem Bereich machen können.
  • Object Storages! In meinen Augen ein Thema was gerade riesig wird.
  • Big Data / Hadoop. Gerade im Zusammenhang mit Object Storages kommt man hier nicht herum.
  • Neue Cloud Konzepte. Das ist alles noch nicht das Ende der Fahnenstange.

Mal sehen wie sich das Jahr so entwickelt. In einem Jahr gibt es einen Rückblick auf diesen Artikel 🙂

In diesem Sinne …

happy new year

Ein großartiges und gesundes neues Jahr.

Liebe Grüße

Falk

 

PS: Nochmal zurück zur Überschrift. Zumindest das SSL-Zertifikat ist jetzt schon einmal erneuert…

Der 25 Stunden Tag im MCP Detailed Usage Report

Ein Kunde beschäftigt sich derzeit etwas intensiver mit den Usage Reports der MCP. Siehe dazu auch diesen Artikel: MCP Usage Reports automatisch erstellen

Dabei fiel eine Zeile ins Auge (gekürzte Fassung):

Name Type Location Status Start Time End Time Duration (Hours) CPU Hours RAM Hours Economy Storage Hours
<Hostname> Server EU6 Running 10/29/16 0:00 10/30/16 0:00 24 24 24 240
<Hostname> Server EU6 Running 10/30/16 0:00 10/31/16 0:00 25 25 25 250
<Hostname> Server EU6 Running 10/31/16 0:00 11/1/16 0:00 24 24 24 240

Irgendwie ist die Zeitumstellung dieses Jahr an mit vorbeigegangen und deshalb habe ich auch nicht gleich daran gedacht. 🙂

An die einfachsten Lösungen denkt man offensichtlich selten zuerst. Das Leben könnte wahrscheinlich öfters weniger kompliziert sein. 🙂

Damit ein schönes Wochenende.

MCP Usage Reports automatisch erstellen

Weil wir gerade so eine Anfrage haben, möchte ich kurz darüber schreiben.

Man kann in der Dimension Data Cloud einen Usage Report über die Admin-UI erstellen. Dabei wird ein CSV-File generiert, welches dann weiter verarbeitet werden kann.

MCP Usage Reports automatisch erstellen weiterlesen