Cloud-Computing

Die Computerwolke muss Energie sparen

Gerald Kofler | aus HEUREKA 4/10 vom 20.10.2010

Nachdem Millionen für Inhouse-Datacenter verprasst wurden, ist es an der Zeit, sie abzuschalten", schrieb Nicholas G. Carr 2005 in der MIT Sloan Business Review.

2010 werden Anwender laut Untersuchung des Marktforschungsinstituts Technoconsult etwa 386 Millionen Euro für Cloud-Services ausgeben. Für Rechenleistungen also, die fern der eigenen Infrastruktur, erbracht und übers Internet nutzbar gemacht werden. Bis 2012 ist mit jährlichen Wachstumsraten von fast 50 Prozent zu rechnen.

Die Großen der Branche bieten alle Wolkenlösungen an. Für die Nutzer bringt Cloud-Computing Kosteneinsparungen durch Auslagerung. Die Rechenleistung wird zapfbar wie Strom aus der Steckdose.

Im Wirtschaftslatein bedeutet dies, aus Anlagevermögen wird Betriebsaufwand. Rechenkapazität, Wartungsaufwand, Speicherkapazität oder Ähnliches werden an die Datacenter der Betreiber einer Cloud-Plattform ausgelagert. Bezahlt wird für jene Ressourcen, die man wirklich nutzt, sei es Speicher- oder Serverkapazität, seien es Anwendungen.

Mit dem Schritt vom Kauf zur Miete können selbst kleine Unternehmen oder knapp budgetierende Universitätsinstitute bis zu einem Drittel der Gesamtkosten sparen und bleiben auch in Krisenzeiten produktiv.

Es gibt auch Entwicklungen abseits des Mainstream. Open Cirrus ist eine Initiative mit dem Ziel, zu Forschungszwecken einen kompletten Open-Source-Cloud-Computing-Stack zu entwickeln. An dem Projekt beteiligt sind HP Labs, Intel Research, Yahoo Research, die University of Illinois at Urbana-Champaign, das Karlsruher Institut für Technologie, die Infocomm Development Authority, das Electronics and Communications Research Institute, das Malaysian Institute for Microelectronic Systems und die Russische Akademie der Wissenschaften.

Der OpenSource Solution Stack von Lisog.org, einem Verein von Open-Source-Anbietern und -Anwendern in Deutschland, Österreich, der Schweiz, Serbien, Kanada und den USA richtet sich vor allem an professionelle IT-Anwender, die sich für die Umsetzung einer Open-Source-Strategie entschieden haben.

"Vieles streckt freilich noch in den Kinderschuhen", sagt Albert Blauensteiner, Leiter der Abteilung für Standardsoftware an der TU Wien. "Die Situation bei vielen Cloud-Angeboten ist gegenwärtig wie vieles, das man im Internet vorfindet - nicht alles ist Gold, was glänzt."

Es gilt den tatsächlichen Kostenvorteil genau zu überdenken, erklärt Blauensteiner, der mit seinem Team gerade an der Konzeption einer Cloud arbeitet. "Nicht überall ist das Outsourcing von Desktopsoftware sinnvoll. Wer glaubt, dass man in Zukunft die EDV-Division oder den Sachverständigen im Betrieb einsparen kann, der irrt. Auch die Cloud will gewartet sein, gerade wegen des Outsourcing, das neben rechtlichen auch viele technisch und organisatorische Fragen offen lässt."

"Ideen und Konzepte kommen in Wellen", sagt der Senior Researcher, Berater und Autor Alexander Schatten. "Frühe Entwicklungen kämpfen oft mit technischen Hürden, die es zu beseitigen gilt. Oder einfach damit, dass der Markt noch nicht reif genug ist."

Geld und Energie spart die Cloud bei der Hardware. Da die Rechenleistung am Server erfolgt, werden sich die Innovationsintervalle bei der Hardware verlängern. Gleichzeitig erfolgt bei den Clients ein Downgrading: Netbook statt Notebook, Thin Client statt PC. Das könnte im High-Performance-Bereich zu höheren Hardwarekosten führen.

Cloud-Computing kann eine Brücke zu grüneren IT-Landschaften sein. "Bei einem herkömmlichen Pkw wird lediglich ein Prozent der Energie dazu verwendet, den Fahrer fortzubewegen. Der Rest geht verloren, um das Auto zu bewegen", erläutert Schatten. "Moderne Rechenzentren nutzen durchschnittlich 30 Prozent ihrer Kapazität. Die Auslastung liegt unter drei Prozent. Der Vorteil von Cloud-Computing liegt vor allem im besseren Umgang mit den Ressourcen. Also im Vergleich zum Auto: besser Bahn fahren statt ein teures Auto."

In den OECD-Staaten liegt der IT-Energieverbrauchsanteil bei zehn Prozent. Dennoch gilt in vielen Rechenzentren beim Stromverbrauch immer noch die 50/50-Formel: 50 Prozent des Stroms treiben die Server an, der Rest dient der Kühlung.

"Diese Zahlen kommen deshalb zustande, weil die Rechnersysteme auf Spitzenlasten ausgelegt sind", sagt Stefan Zeitzen, Senior Vice President für Vertrieb und Services für Kontinentaleuropa der Softwarefirma UC4. "Umgehen lässt sich dies, indem Infrastrukturen konsolidiert und virtualisiert werden. So lassen sich Workloads erheblich besser verteilen. Große Datacenter mit zahlreichen Servern profitieren von dem Performancegewinn und den geringeren Energiekosten. Eine wesentliche Aufgabe wird in Zukunft der automatisierten Steuerung der verwendeten Serverinfrastruktur zukommen."

Auch der Verkauf der Abwärme kann in einigen Fällen eine interessante Option sein. IBM hat das in der Nähe von Zürich vorgemacht: Dort beheizt die Abwärme eines Rechenzentrums ein Hallenbad.

Große Serverfarmen haben heute einen Energieverbrauch, der nicht selten den einer Kleinstadt übertrifft. Trotzdem ist die Energiebilanz gut. Den Bestwert bringen die Rechenzentren von Google, bei denen pro 100 Watt Serverleistung nur noch etwa 20 Watt für die Kühlung aufgewendet werden müssen. Rechenleistung wird in diesen Datenfabriken produziert wie Strom in einem Kraftwerk - und kann auch ebenso einfach vom Kunden abgenommen werden. Diese Effizienz erst macht das Anbieten von Rechenleistung aus der Cloud zu einem Geschäftsmodell.

Weitere Artikel lesen


Anzeige

Anzeige