Letzte News:

P&I Personal & Informatik AG setzt auf ein Informationssicherheitsmanagementsystem

TÜV TRUST IT GmbH Unternehmensgruppe TÜV AUSTRIA unterstützte das Zertifizierung

... [mehr]
Impulse zur Digitalisierung der Produktion

8. Best Practice Day der FELTEN Group am 15. November 2016 in Höxter (Niedersach

... [mehr]
Silo-Denken in der IT-Sicherheit erzeugt Schwächen und steigert die Kosten

CARMAO-Studie: Kein ganzheitlicher Umgang mit den zahlreichen Teilbereichen vom

... [mehr]
Atos und Felten entwickeln Data Analytics Use Cases für Produktionsbetriebe

Atos Codex Cloud-Plattform unterstützt Manufacturing Execution System (MES) PILO

... [mehr]
iCONOMY ePaper
Suchen & Finden  
erweiterte Suche  

Flexiblere und kostengünstigere IT-Ressourcen durch Utility Computing

Konstante IT-Anforderungen sind in den Unternehmen eine Seltenheit. Als neue Variante des Hosting gewinnt Utility Computing deshalb eine rasch wachsende Bedeutung. Hierbei können die Anwender ihren Bedarf an Server- und Speicherkapazitäten beliebig steigern oder reduzieren. Gleichzeitig wird ihre IT wirtschaftlicher, weil nur die tatsächlich genutzten Ressourcen berechnet und Kosten für ungenutzte Systemreserven vermieden werden.

Wenn Unternehmen ihre Bilanzen vorlegen, ist meist nicht mehr erkennbar, wie nah im vorangegangen Jahr die Umsatzzuwächse und -rückgänge oftmals beieinander lagen. Wie wechselhaft die Geschäftsentwicklungen sind, lässt sich meist auch an Branchen- oder Wirtschaftsstatistiken ablesen. So sank 2005 die deutsche Industrieproduktion nach zunächst positivem Jahresbeginn bereits im Februar wieder, zeigte anschließend von März bis Oktober einen weitgehend kontinuierlichen Aufwärtstrend, der aber durch Tiefs im Mai und August unterbrochen wurde. Und in den letzten beiden Monaten zeigten die Zahlen wiederum leicht nach unten.

Solches Auf und Ab ähnlich einer Fieberkurve ist für fast jedes Unternehmen typisch, weil es sich in sehr lebendigen Märkten und wechselnder Nachfrage befindet oder saisonale Einflüsse bestehen. Die Wirtschaft ist an diese nur selten konstanten Verhältnisse gewöhnt, aber sie bereitet den Unternehmen wegen der schwierigen Planbarkeit auch eine Menge Kummer. Denn sie können sich nicht an Mittelwerten orientierten, sondern müssen durchgängig so viele Ressourcen bereit halten, wie bei hoher Produktionsauslastung benötigt werden.

Häufig brachliegende technische Ressourcen

Dies gilt gerade auch für die Informationstechnik, da die Systemleistungen für Spitzenlasten ausgelegt sein müssen und dadurch in den normalen Zeiten wertvolle Ressourcen ungenutzt bleiben. So liegt nach Analysen des Marktforschungsunternehmens Gartner die durchschnittliche Auslastung der verfügbaren Server-Kapazitäten in den Firmen tatsächlich nur bei 25 Prozent, während die restlichen 75 Prozent die meiste Zeit brachliegen und die Wirtschaftlichkeit der IT-Infrastruktur belasten.

Bislang haben sich viele Unternehmen diesem teuren Overhead an Ressourcen nicht entziehen können, da eine ständige Anpassung der technischen Infrastruktur an die wechselnden Anforderungen zu aufwändig ist. Deshalb mussten sie bisher meist in den sauren Apfel beißen und teure Leistungen in Wartestellung halten, die sie nur bei Produktionsspitzen oder in anderen Ausnahmesituationen benötigen. Als Antwort darauf wurde deshalb die Idee des Utility Computing geboren. Sie geht auf den englischen Begriff „utility“ zurück, der die Bereitstellung von Strom, Gas oder Wasser über das Netz eines Versorgungsbetriebs meint.

Nachhaltig hohe Kostenersparnisse

Nach dem gleichen Prinzip funktioniert Utility Computing: Die Unternehmen beziehen über das hochverfügbare Datennetz eines Dienstleisters wie COLT in dem jeweils benötigten Umfang Rechnerkapazitäten und Speicherplatz. Diese Leistungen werden verbrauchsgerecht zu fest definierten Preisen und Service-Levels abgerechnet. Weil dadurch lediglich die tatsächlich in Anspruch genommenen Ressourcen bezahlt werden, entstehen deutliche Kostenvorteile. So schätzen die Analysten von Gartner, dass Unternehmen bei den Total Cost of Ownership (TCO) zwischen 30 und 60 Prozent sparen können.

Allein aus diesem Grund kommt die Utility Computing-Idee bei den IT-Verantwortlichen offenbar gut an. Zwar werden solche Services nach einer aktuellen Erhebung des Beratungshauses Capgemini derzeit erst von einem Drittel der Unternehmen genutzt, 64 Prozent erachten sie jedoch für sinnvoll. Die Studie kommt deshalb zu dem Schluss, dass sich dahinter ein viel versprechendes Konzept mit großer Zukunft verbirgt.

Diese Erwartung erscheint nicht nur wegen der wirtschaftlichen Verheißungen logisch, sondern auch die zunehmende Automatisierung der technischen Prozesse weist dorthin. Denn je mehr die hoch automatisierten Infrastrukturen zunehmen, desto weniger manuelle Abläufe werden notwendig und umso mehr Ressourcen lassen sich aus der „Steckdose“ beziehen.

Virtuelle Ressourcen statt dedizierte Server

Dem Ruf des Marktes folgend hat auch COLT Dienste für das Utility Computing entwickelt. Nutznießer solcher Dienste sind Firmen, die COLT das Hosting ihrer Systeme überantwortet haben. Anders als bei den bisher üblichen dedizierten Servern, die aus gutem Grund mit erheblichen Leistungsreserven für Spitzenbelastungen ausgestattet sind und deshalb im üblichen Betrieb wirtschaftlich nicht optimal genutzt werden können, steht ihnen beim Utility Computing ein großer Rechnerpool zur Verfügung.

Um dessen Ressourcen teilen zu können, werden moderne Virtualisierungstechniken eingesetzt. Sie unterteilen die Kapazitäten in logische Ressourcen anstelle der physikalisch vorhandenen. Den Kundenanwendungen wird dabei kein bestimmter vorab festgelegter Server oder Speicher zugeordnet, sondern sie erhalten beliebige Ressourcen aus dem Pool, die zur Laufzeit frei sind. Dadurch kann COLT als ITK-Provider seine technischen Kapazitäten deutlich effizienter nutzen und den dabei gewonnen Kostenvorteil an seine Kunden weitergeben.

Mehr Flexibilität in der Geschäftsentwicklung

An dem Leistungsniveau, der Sicherheit oder Datenintegrität ändert dieses Verfahren gegenüber dem klassischen Hosting nichts. Stattdessen erhält der Kunde neben den wirtschaftlichen Vorteilen ein erhebliches Plus an Flexibilität. Denn bei steigendem Ressourcenbedarf aufgrund gestiegener Vermarktungserfolge, Erweiterungen des Produktangebots oder Einsatz zusätzlicher Anwendungen kann eine Kapazitätsanpassung schnell und ohne Beeinträchtigung der Produktivität vorgenommen werden. Bislang mussten in solchen Fällen entweder zeitweilige Nutzungsbeschränkungen in Kauf genommen oder mit hohem Investitions-, Projekt- und Zeitaufwand zusätzliche Server funktionsgerecht implementiert werden, sofern nicht teure Leistungsreserven bestehen.

Somit koppelt Utility Computing die geschäftliche Entwicklung eines Unternehmens von den oft statischen Kapazitäten der IT-Landschaft ab, wodurch dieser Outtasking-Variante eine strategische Bedeutung zukommt: Das Unternehmen kann kurzfristig auf neue Anforderungen reagieren und sich auf das eigentliche Business konzentrieren. Die Vorteile einer flexiblen und dynamischen Infrastruktur gelten auch für mögliche negative Entwicklungen eines Unternehmens.

Da sie üblicherweise mit einem sinkenden Ressourcenbedarf einhergehen, reduzieren sich auch die verbrauchsabhängigen Kosten. Bei den klassischen Konzepten mit dedizierten internen oder gehosteten Systemen würden hingegen unveränderliche Fixkosten bestehen, die angesichts des ungünstigen Geschäftsverlaufs zusätzliche wirtschaftliche Belastungen darstellen.

Somit löst Utility Computing nicht nur das Problem, dass sich Unternehmen zwischen den beiden unbefriedigenden Alternativen einer Leistungsbeschränkung bei zwischenzeitlich steigendem Bedarf oder teuren Leistungsreserven für Spitzenbelastungen entscheiden müssen. Zusätzlich wird eine variable und der Geschäftsentwicklung angepasste Kostenbelastung geschaffen. Zudem stellt die verbrauchsgerechte Berechnung von IT-Leistungen die fairste Form dar, weil nur die tatsächlich genutzten Ressourcen bezahlt werden.

Weitere Backgrounder

Employee Self Services reduzieren die operativen Prozesse

Drei Viertel der Personalleiter stöhnen über hohen Administrationsaufwand in ihrem Bereich

...
IW: Jedes zweite Unternehmen stellt ein

Nach dem der Branchen-Index des BITKOM ein neues Allzeithoch erreicht hat meldet nun auch

...
Cloud Computing braucht internationale Rechtssicherheit

Die großen Unterschiede in den Datenschutzbestimmungen in Europa und den USA stellt eine g

...
Kosteneinsparungen und Flexibilität verbessern durch den Gang in die Wolke

Die Kostenschraube zurückdrehen und die Flexibilität steigern – das versprechen sich die U

...
Zahl der Intensiv-Nutzer sozialer Netzwerke steigt

Laut einer aktuellen Forsa-Umfrage im Auftrag des Branchenverbandes BITKOM steigt die Summ

...
Zertifizierung der IT-Servicequalität - Das Problem der Nachhaltigkeit

Immer häufiger stellen Unternehmen deutliche Schwächen in ihren IT-Prozessen fest und hole

...
Dreamteam ECM und CRM: Unternehmensweit Kundendaten im Griff

Einen positiven Einfluss auf Unternehmenserfolg, Kundenservice und Kundenzufriedenheit erw

...
Optimierung der SAP-basierten Geschäftsprozesse

Interview mit Christoph Scheuermann, Geschäftsführer des Karlsruher SAP-Systemhauses ORGA

...
Diskrepanz zwischen Zielen und Ergebnissen von Cloud- und Virtualisierungsprojekten

Mit ihrem „Virtualization an Evolution to the cloud“-Report ging der IT-Sicherheitsspezial

...
Cyber-Ark mit Tipps für mobile Datensicherheit

Die zunehmende Verbreitung mobiler Endgeräte lässt Smartphones und Co. für Internetkrimine

...