VMware Aria Automation Orchestrator im Praxiseinsatz

In Sachen Automatisierung ist Wiederverwendbarkeit das Ziel – etwa Skripte an verschiedenen Stellen erneut einzusetzen. Zu diesem Zweck stellt VMware Aria Automation Orchestrator (vormals vRealize Orchestrator) sogenannte Actions bereit. Der Fokus in unserem Workshop liegt dabei auf typischen Szenarien, wie sie in der Praxis immer wieder vorkommen. Dies umfasst etwa das Ausführen von Skripten in virtuellen Maschinen, das Registrieren einer VM im DNS, die Integration ins Active Directory oder das Automatisieren von anderen VMware-Produkten. Im ersten Teil schauen wir uns an, wie Sie mit dem VMware Aria Automation Orchestrator Logging und Fehlerbehandlung betreiben.

VMware Aria Automation Orchestrator ist ein sehr mächtiges Tool ist, das einerseits mit vielen fertigen Workflows ausgeliefert wird, es andererseits aber erlaubt, eigene Logik zu implementieren und andere Schnittstellen und Skripte aufzurufen. Mit dem Scriptable-Task etwa lässt sich eigene Logik in Form von Bash-, PowerShell- oder Batch-Skripten realisieren. Um Skripte an verschiedenen Stellen erneut einzusetzen, stellt Aria Automation Orchestrator Actions bereit. Diese lassen sich sehr einfach implementieren. Wir zeigen dies an einem Beispiel, wie Sie die Anzahl an vCPUs, die an eine VM gebunden sind, herausfinden können.

Dazu wechseln Sie in der Aria-Automation-Orchestrator-GUI auf die Seite „Library / Actions“ und erzeugen eine neue Action. Als Erstes vergeben Sie einen Namen. Zusätzlich bedarf es eines Namens für ein Modul, das beim Anlegen der Action miterzeugt wird. Modulnamen sind ähnlich wie Package-Namen bei Java aufgebaut: Sie beginnen mit der Top-Level-Domäne und werden dann immer spezifischer. Beispielsweise könnten Sie „net.sclabs.vmware.vcenter“ als Modulnamen heranziehen. Die Beschreibung ist optional. Anschließend wechseln Sie auf die Script-Registrierkarte. Wie bei Workflows auch, müssen Sie Input- und Output-Variablen definieren.

Gesamte Artikelreihe kostenlos auf IT-Administrator.de lesen: Teil 1, Teil 2, Teil 3

DevSecOps mit DefectDojo – Der frühe Vogel…

Wenn es um Sicherheit geht, ist es sehr sinnvoll, diese möglichst früh im Entwicklungsprozess einer Software zu verankern. DefectDojo ist ein Vulnerability-Management-Tool, das Entwicklerteams und Admins dabei hilft, Schwachstellen zu identifizieren, nachzuverfolgen und zu beheben. Unser Workshop stellt Grundlagen, Architektur und praktische Nutzung des freien Werkzeugs vor.

Schon seit Jahren ist DevOps bei den meisten Firmen in der Softwareentwicklung nicht mehr wegzudenken. Der Begriff steht für diverse Praktiken, Tools und eine Art Kulturphilosophie, die dabei helfen sollen, Prozesse zwischen der Entwicklungsabteilung und den IT-Teams zu automatisieren und zu verzahnen. Basierend auf den DevOps-Mechanismen hat sich in den letzten Jahren eine Weiterentwicklung herausgebildet: DevSecOps. Kurz gesagt handelt es sich dabei um DevOps plus Sicherheit. Etwas ausführlicher bedeutet dies, dass Sicherheit in jeder Phase des Software-Entwicklungsprozesses eine Rolle spielen sollte: vom ersten Design über Integration, Test und Bereitstellung bis hin zur Auslieferung.

Das Prinzip, dass die Bearbeitung von Aufgaben – in unserem Fall Security – möglichst zeitlich nach vorne in einer Prozesskette verlagert werden soll, heißt auch Shift-Left-Ansatz. Auf Container bezogen bedeutet dies, Sicherheitsaspekte schon beim Bau von Containern einzubeziehen. Das ergibt Sinn, denn Vorfälle in Produktivumgebungen lassen sich oft nur mit hohen Kosten beheben. Viel kostengünstiger ist es meist, wenn Fehler am Anfang des Entwicklungsprozesses gefunden werden. Im Umfeld von Shift-Left und DevSecOps haben sich in den letzten Jahren viele Tools auf dem Markt etabliert. Ein freies ist DefectDojo [1].

DefectDojo im Überblick

Ursprünglich wurde DefectDojo von Rackspace entwickelt, ist aber mittlerweile Open Source. An der Fortentwicklung der Software arbeitet die Community eifrig: Mittlerweile gibt es über 350 Contributers und das Produkt hat mehr als 2500 GitHub-Stars. Neue Features werden relativ häufig released – laut GitHub-Seite erfolgt etwa alle zwei Wochen eine Aktualisierung. Das Werkzeug integriert sich in eine große Reihe existierender Sicherheitstools – inklusive Security-Scanner, Issue-Tracker und Reporting-Werkzeuge – und zeigt deren Informationen in einer zentralen und leicht nachvollziehbaren Art und Weise an.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen

Cloud-o-mat: Mit der PowerShell GCP und AWS administrieren

Die PowerShell als plattformübergreifendes Framework zur Automatisierung, Konfiguration und Verwaltung von Systemen automatisiert auch Clouds abseits von Azure. So unterstützen auch AWS und Google Cloud Platform das Werkzeug – unser Workshop liefert das Rüstzeug für den Einsatz der PowerShell in diesen Infrastrukturen.

Starten wollen wir unsere Reise in den Cloudkosmos der PowerShell mit der Google Cloud Plattform (GCP). Wir zeigen, wie der verlässliche Automatisierer dort in Betrieb geht und wie Sie sich mit ihm typische Verwaltungsaufgaben vereinfachen. Der zweite Teil unseres Workshops zeigt dies dann analog für die AWS-Plattform.

PowerShell für GCP einrichten

In der Google-Cloud ist die PowerShell mittels der „Cloud Tools for PowerShell“ [1] verfügbar. Google selbst sieht die PowerShell für Anwendungsfälle vor wie die Automatisierung von Windows-Arbeitslasten, die in GCP laufen. Dabei haben die bereitgestellten PowerShell-Module nicht den vollen Umfang der zugrundeliegenden SDK, es ist also keine Featureparität mit anderen Tools wie zum Beispiel Terraform vorhanden. Google veröffentlicht die Sourcen auf GitHub, sodass Sie bei Bedarf oder Interesse Einsicht in den aktuellen Stand nehmen können. Zum jetzigen Zeitpunkt liegt der Fokus auf der Automatisierung von virtuellen Maschinen, Cloud-Storage und Cloud-SQL – also vor allem bei IaaS-Workloads.

Die Installation der PowerShell für Google geht schnell von der Hand. Voraussetzung ist natürlich ein GCP-Zugang und ein Projekt, für das die Kostenabrechnung aktiviert ist.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen

VMware Aria Operations: Die Bälle in der Luft halten

Nachdem VMware lange Zeit vorrangig im Rechenzentrum zu Hause war, setzt es den Fokus seit einiger Zeit auf das Thema Multicloud. Mit der runderneuerten Aria-Suite bietet VMware ein Werkzeug zur einheitlichen Verwaltung von derartigen Umgebungen. Wir haben uns für diesen Artikel Aria Operations angeschaut und erklären dessen Grundlagen und Praxiseinsatz.

Wie bereits in der Vorgängerversion, der vRealize-Suite, gibt es auch innerhalb von VMware Aria verschiedene Produkte. Mit Aria Cost existiert ein Tool für das vereinfachte Management von Cloudkosten und Kapazitäten. Ziel ist eine vollständige Kostentransparenz, eine kontinuierliche Optimierung der Ausgaben sowie eine vereinfachte Kapazitätsverwaltung.

Bei Aria Automation handelt es sich um eine Plattform für Selfservice-Infrastrukturautomatisierungen in Multicloud-Umgebungen. Dabei stehen die DevOps-Technologien Infrastructure-as-Code, GitOps und Infrastruktur-Pipelining im Vordergrund. Das Angebot adressiert darüber hinaus die zentrale Verwaltung und Automatisierung von Kubernetes-Clustern verschiedenster Clouddistributionen und ermöglicht das Durchsetzen von Compliance-Richtlinien.

In diesem Beitrag schauen wir uns aber Aria Operations an, das VMware als einheitliche, leistungsstarke Plattform für das IT-Betriebsmanagement in Private-, Hybrid- und Multicloud-Umgebungen bewirbt.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen

Hashicorp Terraform Enterprise – Weltenbauer

Hashicorp hat mit Terraform schon seit Jahren eine umfassende Deploymentsoftware für Infrastructure-as-Code am Start. Mittlerweile ist Terraform in Version 1.0 verfügbar und neben der Open-Source-Variante hat der Hersteller sein Werkzeug als Clouddienst und für die lokale Installation im Angebot. Diese kostenpflichtigen Versionen bieten zusätzliche Features für das zentrale Verwalten und Ausführen von Terraform-Code, die Sicherheit, die Erweiterbarkeit und die Integration in Drittprodukte.

Terraform Enterprise als Werkzeug für Infrastructure-as-Code (Iac) liegt aktuell in vier Versionen vor, wobei die „Free“-Variante sich vor allem an einzelne Entwickler richtet. Sie bietet ein grafisches Portal zur Verwaltung des eigenen „Terraform State“ und für das Modulmanagement steht eine Module Registry bereit. Support seitens des Anbieter gibt es hier nicht – dieser muss von der Community bezogen werden. Die „Team & Governance“-Edition erweitert die Free-Version auf Teams und erlaubt den Einsatz von Sentinel. Dabei handelt es sich um ein Policy-Framework, das dem Nutzer einzuschränken erlaubt, was Terraform deployen kann. Die Variante wird pro User lizenziert und bringt auch Support durch den Hersteller mit.

An Großkunden richtet sich die Business-Variante, die Enterprise-Features wie Single Sign-on, Auditprotokollierung, Agenten und Premium-Support bietet. Als selbst installierbare Version steht Terraform Enterprise bereit. Diese selbstbetriebene Software bietet vergleichbare Features wie ihr Terraform-Pendant in der Cloud, das wir im Folgenden unter die Lupe nehmen.

Schnell zum ersten Workspace

Das initiale Einrichten der in der Cloud gehosteten Version gestaltet sich sehr einfach und gelingt in wenigen Minuten. Nachdem wir uns registriert hatten, konnten wir uns an das Anlegen eines Workspaces machen. Hashicorp bietet dafür einen Workflow an, der aus wenigen Schritten besteht: Im ersten galt es, einen Workflow-Typ auszuwählen. Dazu konnten wir Terraform entweder an ein Git-Repository binden, um Terraform-Läufe basierend auf Requests oder Merges auszuführen, Terraform per CLI anzutriggern oder mittels der Terraform-API anzusteuern. Kommt ein Git-Repository zum Einsatz, ist die dortige Anmeldung mit den entsprechenden Credentials erforderlich. Abschließend lässt sich festlegen, welche Repositories genutzt werden.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen

Wolkenmaschine – VMware vRealize Suite 8.2

Die vRealize Suite ist ein etabliertes Werkzeug zur Verwaltung und Automatisierung von VMware-Landschaften. Wie andere Produkte auch hat die Suite im Lauf der letzten Jahre den Wandel Richtung Cloud vollzogen und deshalb viel Neuerungen, aber auch die eine oder andere Überarbeitung erfahren. Seit 2019 gibt es vRealize in der Version 8, kurz vor Weihnachten 2020 gab es die letzte Überarbeitung in Form von Version 8.2 Patch 1.

Die Lizenzierung von vRealize erfolgt auf unterschiedliche Art und Weise: Es ist möglich, die Produkte sowohl standalone als auch in Form von Bundles zu erwerben. Für vRealize Operations kann dies als Teil eines vSphere-Bundles oder mit der vRealize Suite geschehen. Diese Suite selbst gibt es in den Editionen Standard, Advanced und Enterprise. Allen gemeinsam ist das neue Produkt vRealize Lifecycle Manager, eine Appliance zur Installation, Konfiguration und Verwaltung der anderen vRealize-Produkte. Die Standard-Edition umfasst vRealize Operation Advanced und vRealize Log Insight. Die vRealize Suite Advanced Edition bringt vRealize Automation in der Advanced-Edition mit. Wer die Enterprise-Variante benötigt, muss bei der vRealize Suite entsprechend auch den Enterprise-Level bezahlen.

Neu ist nun auch die vRealize Cloud Universal Suite. Dabei handelt es sich um ein Angebot von VMware, bei dem sich die vRealize-Produkte klassisch lokal installieren lassen, aber auch als SaaS-Variante zur Verfügung stehen und so eine Installation ersparen. Dabei sind die SaaS-Angebote ähnlich benannt: So heißt beispielsweise der Gegenpart zu vRealize Operations dann vRealize Operations Cloud. Mit der VMworld hat VMware zudem ein neues Produkt angekündigt: vRealize AI Cloud, das – wie der Name schon sagt – wohl exklusiv in der Cloud laufen wird. Mit vRealize AI Cloud wertet VMware die durch vRealize Operations gesammelten Metriken aus. Das Produkt setzt künstliche Intelligenz in Form von maschinellem Lernen ein, um infrastrukturelle Belange entsprechend zu optimieren.

Version 8 zieht auf Cloudumgebungen

In der neuen Version ging es VMware somit darum, seine Produktsuite fit für das Cloudzeitalter zu machen und Kunden eine Cloudmanagement-Plattform für den täglichen Betrieb und die Automatisierung bereitzustellen. Dabei hat VMware die hybride Cloud im Fokus, das heißt, es existiert sowohl eine Unterstützung für die eigene VMware Private Cloud als auch für die großen Hyperscaler wie AWS, Microsoft Azure und Google Cloud Platform (GCP).

Gesamten Artikel im IT-Administrator-Heftarchiv lesen