VMware Aria Automation Orchestrator im Praxiseinsatz

In Sachen Automatisierung ist Wiederverwendbarkeit das Ziel – etwa Skripte an verschiedenen Stellen erneut einzusetzen. Zu diesem Zweck stellt VMware Aria Automation Orchestrator (vormals vRealize Orchestrator) sogenannte Actions bereit. Der Fokus in unserem Workshop liegt dabei auf typischen Szenarien, wie sie in der Praxis immer wieder vorkommen. Dies umfasst etwa das Ausführen von Skripten in virtuellen Maschinen, das Registrieren einer VM im DNS, die Integration ins Active Directory oder das Automatisieren von anderen VMware-Produkten. Im ersten Teil schauen wir uns an, wie Sie mit dem VMware Aria Automation Orchestrator Logging und Fehlerbehandlung betreiben.

VMware Aria Automation Orchestrator ist ein sehr mächtiges Tool ist, das einerseits mit vielen fertigen Workflows ausgeliefert wird, es andererseits aber erlaubt, eigene Logik zu implementieren und andere Schnittstellen und Skripte aufzurufen. Mit dem Scriptable-Task etwa lässt sich eigene Logik in Form von Bash-, PowerShell- oder Batch-Skripten realisieren. Um Skripte an verschiedenen Stellen erneut einzusetzen, stellt Aria Automation Orchestrator Actions bereit. Diese lassen sich sehr einfach implementieren. Wir zeigen dies an einem Beispiel, wie Sie die Anzahl an vCPUs, die an eine VM gebunden sind, herausfinden können.

Dazu wechseln Sie in der Aria-Automation-Orchestrator-GUI auf die Seite „Library / Actions“ und erzeugen eine neue Action. Als Erstes vergeben Sie einen Namen. Zusätzlich bedarf es eines Namens für ein Modul, das beim Anlegen der Action miterzeugt wird. Modulnamen sind ähnlich wie Package-Namen bei Java aufgebaut: Sie beginnen mit der Top-Level-Domäne und werden dann immer spezifischer. Beispielsweise könnten Sie „net.sclabs.vmware.vcenter“ als Modulnamen heranziehen. Die Beschreibung ist optional. Anschließend wechseln Sie auf die Script-Registrierkarte. Wie bei Workflows auch, müssen Sie Input- und Output-Variablen definieren.

Gesamte Artikelreihe kostenlos auf IT-Administrator.de lesen: Teil 1, Teil 2, Teil 3

VMware Aria Operations: Die Bälle in der Luft halten

Nachdem VMware lange Zeit vorrangig im Rechenzentrum zu Hause war, setzt es den Fokus seit einiger Zeit auf das Thema Multicloud. Mit der runderneuerten Aria-Suite bietet VMware ein Werkzeug zur einheitlichen Verwaltung von derartigen Umgebungen. Wir haben uns für diesen Artikel Aria Operations angeschaut und erklären dessen Grundlagen und Praxiseinsatz.

Wie bereits in der Vorgängerversion, der vRealize-Suite, gibt es auch innerhalb von VMware Aria verschiedene Produkte. Mit Aria Cost existiert ein Tool für das vereinfachte Management von Cloudkosten und Kapazitäten. Ziel ist eine vollständige Kostentransparenz, eine kontinuierliche Optimierung der Ausgaben sowie eine vereinfachte Kapazitätsverwaltung.

Bei Aria Automation handelt es sich um eine Plattform für Selfservice-Infrastrukturautomatisierungen in Multicloud-Umgebungen. Dabei stehen die DevOps-Technologien Infrastructure-as-Code, GitOps und Infrastruktur-Pipelining im Vordergrund. Das Angebot adressiert darüber hinaus die zentrale Verwaltung und Automatisierung von Kubernetes-Clustern verschiedenster Clouddistributionen und ermöglicht das Durchsetzen von Compliance-Richtlinien.

In diesem Beitrag schauen wir uns aber Aria Operations an, das VMware als einheitliche, leistungsstarke Plattform für das IT-Betriebsmanagement in Private-, Hybrid- und Multicloud-Umgebungen bewirbt.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen

Verschiebehilfe – Echte hybride Clouds mit Azure VMware Service

Unternehmen migrieren immer mehr Anwendungen in die Public Cloud oder entwickeln neue Software direkt Cloud-nativ, also auf die Möglichkeiten der Public Cloud abgestimmt. Oft finden sich in Unternehmen aber nach wie vor viele klassische Workloads, die sich entweder nicht ohne Weiteres Cloud-nativ umsetzen lassen oder für die eine Cloud-native-Architektur keinen Mehrwert bietet, da sie deren Vorteile nicht nutzen würden. Dabei stellen sich viele die Frage, ob sie auch mit klassischen, auf VMs basierten Applikationen die Vorzüge der Public Cloud nutzen können.

Allerdings schrecken viele Unternehmen davor zurück, Anwendungen im „Lift and Shift“-Verfahren unter Beibehaltung der auf VMs basierenden Architektur in die Cloud zu migrieren. Zum einen ist der Betrieb virtueller Maschinen in der Public Cloud nicht unbedingt günstiger, zum anderen müssen sie die gegebenen Architekturen, etwa die Netzwerkarchitektur, Sicherheitskonzepte sowie weitere Bereiche wie Backup oder Monitoring neu planen.

Der Gesamte Artikel ist Teil der Mai-2022-Ausgabe des iX-Magazins sowie online im Heise Magazine verfügbar.

Selbstermächtigung – VMware Workspace ONE

VMware bietet mit Workspace ONE ein Werkzeug zur Bereitstellung eines sicheren und anwenderfreundlichen digitalen Arbeitsplatzes an. Unser Beitrag stellt Features, Komponenten und Architektur von Workspace ONE dar und wirft einen Blick auf die Applikationsverwaltung. Außerdem gehen wir darauf ein, wie Sie mittels Self-Enrollment durch den Anwender die Integration von Endgeräten vereinfachen.

Der Trend geht weg vom stationären und hin zum mobilen Arbeitsplatz. Trotzdem gilt es für die IT-Abteilung weiterhin, alle Endgeräte effizient zu verwalten. Bedingt durch unterschiedliche Betriebssysteme ist dafür ein übersichtliches Tool zum Endpoint-Management notwendig. VMwares Workspace ONE will sämtliche Geräte eines Unternehmens, auch die privaten aller Mitarbeiter, einheitlich und zentral über eine sichere Plattform in die Infrastruktur integrieren. Übergeordnetes Ziel ist dabei, das Lifecycle-Management der Applikationen zu organisieren. Das Gesamtkonzept nennt sich Unified Endpoint Management (UEM) und ist eine der beiden Kernkomponenten von Workspace ONE.

Neben UEM fasst die zweite Kernkomponente, Workspace ONE Access, die Verwaltung von Nutzern und Nutzergruppen, die Vergabe von Zugangsberechtigungen zu den Applikationen und das Aufsetzen und Bereitstellen von virtuellen Desktops mit den jeweiligen Anwendungen in einem Katalog zusammen. Die Access-Komponente bietet einen Konnektor, um andere ID-Provider wie Ping, Okta und Microsoft Azure anzubinden und somit eine gemeinsame Katalogschnittstelle für alle Anwendungen. Der AirWatch-Cloud-Connector wiederum überträgt Anfragen von Workspace ONE UEM sicher an die Backend-Infrastruktur. Einen Überblick über sämtliche Bestandteile von Workspace ONE bietet die gleichnamige Tabelle.

Bestandteile von Workspace ONE
KomponenteFunktion
VMware Workspace ONE UEMEnterprise Mobility Management (EMM)
VMware Workspace ONE AccessPlattform für Identitäten
VMware Workspace ONE IntelligenceApp-Analysen und Automatisierung
Workspace ONE AppEndbenutzerzugriff auf Apps
VMware HorizonVirtuelle Desktops und RDS-Services
VMware Workspace ONE BoxerSicherer E-Mail-Client
VMware Workspace ONE BrowserSicherer Webbrowser
VMware Workspace ONE ContentMobiles Repository für Inhalte
VMware Workspace ONE TunnelApp-VPN-Zugriff auf Unternehmensressourcen
VMware AirWatch Cloud Connector und VMware Identity Manager ConnectorSynchronisation mit Unternehmensverzeichnissen
VMware Unified Access GatewayGateway, das sichere Edge-Dienste bereitstellt
VMware Workspace ONE Secure Email GatewayE-Mail-Proxyserver
Certificate Authority IntegrationLebenszyklusmanagement von bereitgestellten Zertifikaten
VMware E-Mail Notification ServiceE-Mail-Benachrichtigungen für Workspace ONE Boxer auf iOS
Architektur und Dienste

Administratoren definieren mit Workspace ONE Benutzergruppen, Richtlinieneinstellungen und Gerätekonfigurationen. Benutzer greifen dann über Workspace ONE auf ihre Anwendungen, basierend auf den definierten Einstellungen und Konfigurationen, zu. Bild 1 veranschaulicht das Zusammenspiel der diversen Komponenten und Schnittstellen in Workspace ONE.

Gesamten Artikel im IT-Administrator-Heftarchiv lesen