kubix42

Interessanter Infoworld Artikel über IT Admins die alles tun um ihren Job gut zu machen:
Infoworld

Eine Umfrage bei 253 CIOs aus Grossunternehmen in Deutschland, Frankreich, Grossbritanien und den USA hat ergeben, dass viele der eingesetzten Monitoring-Lösungen die neuen virtuellen IT-Landschaften nur bedingt überwachen können. Das führt dazu, dass in fast 50% der Firmen ein Moratorium für den weiteren Einsatz von Virtualisierung ausgesprochen wird.

Die teuren Monitoring-Frameworks wie HP Open View/Operations Manager, IBM Tivoli, Microsoft System Center, BMC Patrol, CA Unicenter werden nur zu 20% für die Überwachung von virtuellen Umgebungen eingesetzt. Der Grund nach Aussage der CIOs ist die fehlende Funktionalität.

Die gesamte Umfrage finden Sie unter dem folgenden Link: Konsolen taugen nicht für die Virtualisierung

Für die Überwachung von Microsoft Windows Systemen (Server, Exchange, SQL Server etc.) stellt Microsoft seit längerer Zeit mittels Windows Management Instrumentation (WMI) eine auf dem Common Interface Model (CIM) basierendes Technologie zur Verfügung. CIM ist der Industrie Standard welcher durch die Distributed Management Task Force (DMTF) unterhalten wird. In der DMTF sind alle grossen Hard- und Softwarehersteller Mitglied. (z.B. Microsoft, IBM, HP, RedHat, Oracle, Intel, VMware, Cisco usw.)

Die WMI Architektur bietet Schnittstellen (API) für sogenenannte WMI Consumer (Management Applikationen) an. Monitoring Systeme wie z.B. System Center Operations Manager (SCOM) verwenden diese Schnittstelle um Daten von logischen und physikalischen Komponenten (Harddisk, Netzwerkadapter, Datenbanksystem, Betriebsystem, Prozess, Services usw.) zu erhalten. Durch die offene Schnittstelle via WMI Scripting API können auch kostengünstige Monitoringlösungen wie z.B. Nagios, Zenoss, etc. von diesem Standard profitieren.

Die Verwendung der WMI Scripting API wird in einem aktuellen 15 Minuten dauernden Video durch den Monitoringsoftware Hersteller GroundWork aufgezeigt.

Wie im richtigen Leben auch, ist für den Betrieb von Cloud Umgebungen eine entsprechende Wetterkunde (Meteorologie) notwendig. Dabei ist eine sinnvolle Überwachung mit einem geeigneten Monitoring Tool sehr hilfreich.

In sogenannten Public Clouds (wie z.B Amazon EC2, Windows Azure, Rackspace, Salesforce usw. ) ist neben der klassischen Überwachung von Verfügbarkeit und Performance ein zusätzlicher Punkt wichtig. Da es sich bei Public Clouds um Mietservices handelt, ist eine aktive Überwachung der Kosten zu empfehlen. Ende Monat wird sonst die Rechnung präsentiert und kann dem Empfänger den Appetit verderben. Diese ungeniessbare Kröte muss dann durch die Finanzabteilung mit Würgen geschluckt werden.

Durch einfache Klicks und schieben von Schaltern können via WebGui der Cloudanbieter neue Systeme erstellt oder laufende System mit zusätzlichen Ressourcen ausgestattet werden. Dies hat meistens mehr oder weniger Einfluss auf die Höhe der Rechnung und kann mehrere tausend Euros, US$ oder Schweizer Fränkli sein.

Die meisten Monitoringsoftware Hersteller bieten zwar ausgeklügelte Connectoren zu den durch die Cloud Anbieter angebotenen APIs, beschränken sich aber auf Verfügbarkeits- und Performancedaten. Ein Zähler mit den aktuellen Kosten und einer Trendanalyse für diese Kosten ist nicht vorhanden.

Bei der Planung eines IT Monitoringsystemes stellt sich immer wieder die Frage wie möglichst ein Systemunterbruch vermieden werden kann. Gerade in grösseren IT-Infrastrukturen oder als Service Provider ist eine hohe Verfügbarkeit ein wichtiges Thema. Neben der reinen Überwachung dienen heutige Monitoringlösung oft auch zum Messen von so genannten KPIs (Key Performance Indicators) welche die Einhaltung von Service Level Agreements (SLA) wiederspiegeln sollen.
Damit ein hoher Nutzen aus einer Monitoringlösung gezogen werden kann und eine zeitnahe Alarmierung im Fehlerfall möglich ist sind nach meiner Erfahrung die folgenden Punkte zu beachten.

  1. Das Monitoringsystem sollte entsprechend den Verfügbarkeitsanforderungen des IT Betriebes ausgelegt sein. Es macht keinen Sinn einen 7×24 Betrieb mit einer Anforderung von 99,9 % durch eine Monitoringlösung zu überwachen die diese Verfügbarkeit nicht erbringen kann.
  2. Mit einem möglichst einfachen Systemaufbau kann eine bessere Verfügbarkeit erreicht und die Gefahr von Ausfällen einzelner Komponenten reduziert werden. Ein Monitoringsystem welches aus verschiedenen Komponenten, verteilt auf mehrere Systeme, wie z.B. DatenbankServer, WebServer, ReportingServer, ManagementServer etc. besteht, wird immer eine schlechtere Verfügbarkeit als eine Single-Server Installation haben.
  3. Abhängigkeiten von Storage oder Virtualisierungs-Infrastrukturen sollten möglichst vermieden werden. Im Falle eines Problemes der Virtualisierungs-Umgebung wird ein virtualisiertes Monitoringsystem evtl. nicht mehr korrekt funktionieren und z.B. eine Alarmierung nicht mehr möglich sein. Dasselbe gilt auch für Storage (SAN) Infrastrukturen.
  4. Für das Monitoringsystem sollte möglichst eine dedizierte Serverhardware verwendet werden. Redundanzen von Netzwerkkarte, Netzteilen und RAID-System sollten selbstverständlich sein.
  5. Ein direkt an das Monitoringsystem angeschlossenes GSM-Modem wird auch bei einem Netzwerkausfall noch eine SMS versenden können.
  6. Eine Benutzerverwaltung via LDAP (z.B. Active Directory) birgt die Gefahr, dass bei einem Ausfall oder Störung desselben keine Authenfizierung mehr möglich ist und das Anmelden am Monitoringsystem nicht mehr korrekt funktioniert. Für solche Notfälle muss das Monitoringsystem zusätzlich über eine lokale Benutzerauthenfizierung verfügen.
  7. Sogenannte HA (High Availability) Lösungen können nur durch den Einsatz von entsprechender Clustering-Software erreicht werden. Virtuelle Fault Tolerance Lösungen genügen diesem Anspruch nicht, diese bieten nur eine höhere Verfügbarkeit bei Hardware- oder Betriebssystemausfällen. Fehlfunktionen oder Komplettausfälle von Applikationen (z.B. Monitoringapplikation) = Service Availability (SA), können nur mit entsprechenden Zusatzprodukten erkannt und vermieden werden.
  8. Nur HA und SA taugliche Cluster-Lösungen erlauben die unterbruchsfreie Wartung des Monitoringsystems wie z.B. Systemupgrades, Hardwareausbau etc.. Dadurch ist die Überwachung der IT-Infrastruktur immer gewährleistet und eine lückenlose Messung von SLA relevanten Daten möglich.
  9. Für den Disaster Fall muss natürlich immer der Zugriff auf zeitnahe Datenbackups gewährleistet sein. Regelmässige Tests der Backupdaten und des Recovery Prozesses sind ebenfalls nötig.

Ein mögliche Lösung einer HA tauglichen Monitoringumgebung wurde durch die Firma RealStuff Informatik AG für die Migros realisiert. Dazu wurde das Produkt Lifekeeper von SIOS (vormals SteelEye) eingesetzt. mehr…. (nur in Englisch)

Der Softwaregigant Microsoft hat zum Microsoft Management Summit (MMS) 2011 in die Wüsten- und Spielerstadt Las Vegas eingeladen.

Die mit 4000 Besucher ausgebuchte Konferenz wurde intensiv dazu benutzt der Welt die Zukunft der IT aufzuzeigen, wie sich diese Microsoft vorstellt. Nach Ansicht des grössten Softwareherstellers wird diese Zukunft aus einer ziemlichen homogenen Microsoft Welt bestehen. Vorgestellt wurden auch einige Teile der Management Suite, Microsoft System Center, welche als Release 2012 im nächsten Jahr zu erwarten sind. Neu werden neben Operations Manager (SCOM), Configuration Mangager (SCCM), Data Protection Manager (DPM), Service Manager (SCSM), Orchestrator (Firmenübernahme Opalis) und Virtual Machine Manager (VMM) auch System Center Advisor und das Projekt “Concero” (Cloud Management) die Bestandteile von System Center 2012 sein.

Klar scheint für Microsoft zu sein, dass das zukünftige Datacenter (nur) aus Hyper-V (Virtualisierung), Azure (Cloud Computing), Windows Server und weiteren Microsoft Produkten bestehen wird. Was für kleine und homogene Microsoft-Umgebungen von KMUs machbar scheint, ist in einem heterogenen Enterprise Computing Umfeld wohl nicht ganz realistisch. Gespannt kann man sein wie die neuen System Center Versionen z.B. mit VmWare, Amazon EC2, Oracle-DBs, SAP, Linux, Unix und Netzwerkkomponenten interagieren werden. Zu hoffen ist, dass die Scheinwelt von Las Vegas den Blick von Microsoft nicht zu stark getrübt hat.

Das Microsoft System Center Entwicklungsteam hat auch eifrig gebloggt.

Der amerikanische Softwarehersteller GroundWork Inc. hat eine neue Version der erfolgreichen Monitoringplattform GroundWork Monitor veröffentlicht.

Neben vielen Bugfixes sind in der Version 6.4  vor allem Neuerungen in den folgenden Bereichen implementiert worden:

  • Verbesserter Monitoring Agent (GDMA) für die Überwachung von Microsoft Windows Server Systemen inkl. Cluster Server
  • Rollenbasierende “Views” von NagVis Maps und Diagrammen
  • Zentralisierte Konfigurations und PlugIn Updates für Monitoring Agenten (Windows, Linux, Unix)
  • Verbesserte Authentifikations und Zugriffskontrolle  via Active Directory, LDAP und JOSSO

Alle Neuerungen können in der Produktbeschreibung und den Release Notes von GroundWork nachgelesen oder als Live Demonstration via Webcast angeschaut werden.

GroundWork Monitor ist eine offene Plattform und besteht aus verschiedenen OpenSource Projekten. Unter anderem sind dies Nagios, NagVis, Cacti, MySQL, RRDTool, JBoss, Eclipse BiRT.

Nagios Enterprises unterstützt bei jedem Kauf einer Nagios XI Lizenz die Erdbebenopfer in Japan mit einer Spende von 10% der Lizenzkosten.
Nagios sales to help japan earthquake and tsunami relief

Der Berner Informatik Dienstleister, RealStuff Informatik AG bietet umfangreiche Schulungsangebote für den professionellen Einsatz von IT Monitoring basierend auf OpenSource an.

Neben Standardkursen für die beiden Tools Nagios und GroundWork Monitor, sind weiterführende Kurse unteranderem zu Themen wie Reporting, Monitoring von Datenbanken und virtuellen Umgebungen im Angebot. Es werden auch individuelle Kurse auf Wunsch von Kunden angeboten.

Die RealStuff Informatik AG ist der führende Anbieter von Monitoringlösungen basierend auf OpenSource Tools in der Schweiz.

Interessant ist, dass viele bekannte OpenSource IT-Monitoring Projekt sehr viel “Swissness” enthalten. Einige Projekte wurden komplett durch Schweizer “erfunden” oder durch ausländische Studenten welche in der Schweiz studierten entwickelt.

Hier die bekanntesten Projekte und ihr Bezug zur Schweiz.

RRDtoolMRTG SmokePing
Tobi Oetiker, Schweizer, ETH Zürich

NeDi
Remo Rickli, Schweizer, PSI Paul Scherrer Institut

ntop
Luca Deri, Italiener, Universität Bern

Zenoss
Erik Dahl CTO, USA, EPFL Lausanne

GroundWork
Roger Ruttimann Chief Engineer, Schweizer, Haute Ecole Neuchatel

NagiosQL Configurations Gui für Nagios
Martin Willisegger, Schweizer

NConf Configurations Gui für Nagios
Sunrise Communications AG, Zürich, Schweiz

Wie es scheint führen die “typischen” Schweizer Tugenden wie Pünktlichkeit, Zuverlässigkeit etc. zu einer Fülle von OpenSource Tools welche den täglichen Betrieb von IT Infrastrukturen qualitativ steigern helfen. ;-)

© 2011 monitoringblog.ch Suffusion theme by Sayontan Sinha