Letzte News:

P&I Personal & Informatik AG setzt auf ein Informationssicherheitsmanagementsystem

TÜV TRUST IT GmbH Unternehmensgruppe TÜV AUSTRIA unterstützte das Zertifizierung

... [mehr]
Impulse zur Digitalisierung der Produktion

8. Best Practice Day der FELTEN Group am 15. November 2016 in Höxter (Niedersach

... [mehr]
Silo-Denken in der IT-Sicherheit erzeugt Schwächen und steigert die Kosten

CARMAO-Studie: Kein ganzheitlicher Umgang mit den zahlreichen Teilbereichen vom

... [mehr]
Atos und Felten entwickeln Data Analytics Use Cases für Produktionsbetriebe

Atos Codex Cloud-Plattform unterstützt Manufacturing Execution System (MES) PILO

... [mehr]
iCONOMY ePaper
Suchen & Finden  
erweiterte Suche  

Flexiblere und kostengünstigere IT-Ressourcen durch Utility Computing

Konstante IT-Anforderungen sind in den Unternehmen eine Seltenheit. Als neue Variante des Hosting gewinnt Utility Computing deshalb eine rasch wachsende Bedeutung. Hierbei können die Anwender ihren Bedarf an Server- und Speicherkapazitäten beliebig steigern oder reduzieren. Gleichzeitig wird ihre IT wirtschaftlicher, weil nur die tatsächlich genutzten Ressourcen berechnet und Kosten für ungenutzte Systemreserven vermieden werden.

Wenn Unternehmen ihre Bilanzen vorlegen, ist meist nicht mehr erkennbar, wie nah im vorangegangen Jahr die Umsatzzuwächse und -rückgänge oftmals beieinander lagen. Wie wechselhaft die Geschäftsentwicklungen sind, lässt sich meist auch an Branchen- oder Wirtschaftsstatistiken ablesen. So sank 2005 die deutsche Industrieproduktion nach zunächst positivem Jahresbeginn bereits im Februar wieder, zeigte anschließend von März bis Oktober einen weitgehend kontinuierlichen Aufwärtstrend, der aber durch Tiefs im Mai und August unterbrochen wurde. Und in den letzten beiden Monaten zeigten die Zahlen wiederum leicht nach unten.

Solches Auf und Ab ähnlich einer Fieberkurve ist für fast jedes Unternehmen typisch, weil es sich in sehr lebendigen Märkten und wechselnder Nachfrage befindet oder saisonale Einflüsse bestehen. Die Wirtschaft ist an diese nur selten konstanten Verhältnisse gewöhnt, aber sie bereitet den Unternehmen wegen der schwierigen Planbarkeit auch eine Menge Kummer. Denn sie können sich nicht an Mittelwerten orientierten, sondern müssen durchgängig so viele Ressourcen bereit halten, wie bei hoher Produktionsauslastung benötigt werden.

Häufig brachliegende technische Ressourcen

Dies gilt gerade auch für die Informationstechnik, da die Systemleistungen für Spitzenlasten ausgelegt sein müssen und dadurch in den normalen Zeiten wertvolle Ressourcen ungenutzt bleiben. So liegt nach Analysen des Marktforschungsunternehmens Gartner die durchschnittliche Auslastung der verfügbaren Server-Kapazitäten in den Firmen tatsächlich nur bei 25 Prozent, während die restlichen 75 Prozent die meiste Zeit brachliegen und die Wirtschaftlichkeit der IT-Infrastruktur belasten.

Bislang haben sich viele Unternehmen diesem teuren Overhead an Ressourcen nicht entziehen können, da eine ständige Anpassung der technischen Infrastruktur an die wechselnden Anforderungen zu aufwändig ist. Deshalb mussten sie bisher meist in den sauren Apfel beißen und teure Leistungen in Wartestellung halten, die sie nur bei Produktionsspitzen oder in anderen Ausnahmesituationen benötigen. Als Antwort darauf wurde deshalb die Idee des Utility Computing geboren. Sie geht auf den englischen Begriff „utility“ zurück, der die Bereitstellung von Strom, Gas oder Wasser über das Netz eines Versorgungsbetriebs meint.

Nachhaltig hohe Kostenersparnisse

Nach dem gleichen Prinzip funktioniert Utility Computing: Die Unternehmen beziehen über das hochverfügbare Datennetz eines Dienstleisters wie COLT in dem jeweils benötigten Umfang Rechnerkapazitäten und Speicherplatz. Diese Leistungen werden verbrauchsgerecht zu fest definierten Preisen und Service-Levels abgerechnet. Weil dadurch lediglich die tatsächlich in Anspruch genommenen Ressourcen bezahlt werden, entstehen deutliche Kostenvorteile. So schätzen die Analysten von Gartner, dass Unternehmen bei den Total Cost of Ownership (TCO) zwischen 30 und 60 Prozent sparen können.

Allein aus diesem Grund kommt die Utility Computing-Idee bei den IT-Verantwortlichen offenbar gut an. Zwar werden solche Services nach einer aktuellen Erhebung des Beratungshauses Capgemini derzeit erst von einem Drittel der Unternehmen genutzt, 64 Prozent erachten sie jedoch für sinnvoll. Die Studie kommt deshalb zu dem Schluss, dass sich dahinter ein viel versprechendes Konzept mit großer Zukunft verbirgt.

Diese Erwartung erscheint nicht nur wegen der wirtschaftlichen Verheißungen logisch, sondern auch die zunehmende Automatisierung der technischen Prozesse weist dorthin. Denn je mehr die hoch automatisierten Infrastrukturen zunehmen, desto weniger manuelle Abläufe werden notwendig und umso mehr Ressourcen lassen sich aus der „Steckdose“ beziehen.

Virtuelle Ressourcen statt dedizierte Server

Dem Ruf des Marktes folgend hat auch COLT Dienste für das Utility Computing entwickelt. Nutznießer solcher Dienste sind Firmen, die COLT das Hosting ihrer Systeme überantwortet haben. Anders als bei den bisher üblichen dedizierten Servern, die aus gutem Grund mit erheblichen Leistungsreserven für Spitzenbelastungen ausgestattet sind und deshalb im üblichen Betrieb wirtschaftlich nicht optimal genutzt werden können, steht ihnen beim Utility Computing ein großer Rechnerpool zur Verfügung.

Um dessen Ressourcen teilen zu können, werden moderne Virtualisierungstechniken eingesetzt. Sie unterteilen die Kapazitäten in logische Ressourcen anstelle der physikalisch vorhandenen. Den Kundenanwendungen wird dabei kein bestimmter vorab festgelegter Server oder Speicher zugeordnet, sondern sie erhalten beliebige Ressourcen aus dem Pool, die zur Laufzeit frei sind. Dadurch kann COLT als ITK-Provider seine technischen Kapazitäten deutlich effizienter nutzen und den dabei gewonnen Kostenvorteil an seine Kunden weitergeben.

Mehr Flexibilität in der Geschäftsentwicklung

An dem Leistungsniveau, der Sicherheit oder Datenintegrität ändert dieses Verfahren gegenüber dem klassischen Hosting nichts. Stattdessen erhält der Kunde neben den wirtschaftlichen Vorteilen ein erhebliches Plus an Flexibilität. Denn bei steigendem Ressourcenbedarf aufgrund gestiegener Vermarktungserfolge, Erweiterungen des Produktangebots oder Einsatz zusätzlicher Anwendungen kann eine Kapazitätsanpassung schnell und ohne Beeinträchtigung der Produktivität vorgenommen werden. Bislang mussten in solchen Fällen entweder zeitweilige Nutzungsbeschränkungen in Kauf genommen oder mit hohem Investitions-, Projekt- und Zeitaufwand zusätzliche Server funktionsgerecht implementiert werden, sofern nicht teure Leistungsreserven bestehen.

Somit koppelt Utility Computing die geschäftliche Entwicklung eines Unternehmens von den oft statischen Kapazitäten der IT-Landschaft ab, wodurch dieser Outtasking-Variante eine strategische Bedeutung zukommt: Das Unternehmen kann kurzfristig auf neue Anforderungen reagieren und sich auf das eigentliche Business konzentrieren. Die Vorteile einer flexiblen und dynamischen Infrastruktur gelten auch für mögliche negative Entwicklungen eines Unternehmens.

Da sie üblicherweise mit einem sinkenden Ressourcenbedarf einhergehen, reduzieren sich auch die verbrauchsabhängigen Kosten. Bei den klassischen Konzepten mit dedizierten internen oder gehosteten Systemen würden hingegen unveränderliche Fixkosten bestehen, die angesichts des ungünstigen Geschäftsverlaufs zusätzliche wirtschaftliche Belastungen darstellen.

Somit löst Utility Computing nicht nur das Problem, dass sich Unternehmen zwischen den beiden unbefriedigenden Alternativen einer Leistungsbeschränkung bei zwischenzeitlich steigendem Bedarf oder teuren Leistungsreserven für Spitzenbelastungen entscheiden müssen. Zusätzlich wird eine variable und der Geschäftsentwicklung angepasste Kostenbelastung geschaffen. Zudem stellt die verbrauchsgerechte Berechnung von IT-Leistungen die fairste Form dar, weil nur die tatsächlich genutzten Ressourcen bezahlt werden.

Weitere Backgrounder

ITIL entwickelt sich zum Renner - Kostenreduzierung und Produktivitätssteigerung

ITIL (IT Infrastructure Library) für das Management der IT-Services soll innerhalb der näc

...
83 Prozent der weltweiten E-Mails sind Spam

Laut Ralf Benzmüller, IT-Sicherheitsexperte und Leiter der G Data SecurityLabs, sind durch

...
BITKOM: 38.000 offene Stellen in der IT-Branche

Laut aktueller BITKOM-Umfrage bleiben rund 38.000 Stellen für IT-Experten unbesetzt. Vergl

...
Deutliche Mängel im IT-Service-Management der Verwaltungen

Prozessorientierte Organisationen benötigen längst nicht nur leistungsfähige Informationst

...
Unternehmen fliegen beim Application Portfolio Management blind

Die Analyse und Bewertung der eigenen IT-Applikationslandschaft ist für viele Unternehmen

...
Zertifizierung der IT-Servicequalität - Das Problem der Nachhaltigkeit

Immer häufiger stellen Unternehmen deutliche Schwächen in ihren IT-Prozessen fest und hole

...
Ständige Erreichbarkeit wird die Regel

Die Grenzen zwischen Job und Privatleben verschwinden mit zunehmender Verbreitung moderner

...
Standardisierte IT-Prozesse im Visier

Nachdem sich Standardsoftware in den Unternehmen etabliert hat, heißt der logische Folgesc

...
Social Media: Nutzung ja – Monitoring nein

Die Mehrheit aller Unternehmen führt bisher kein systematisches Social Media Monitoring du

...
PAC: IT-Outsourcing gewinnt weiter an Bedeutung

Outsourcing und Managed Services haben sich in der Region DACH mittlerweile etabliert. Doc

...