X

Neuste Trends, Tipps, Strategien &
Events rund um das Thema Cloud

Cloud Computing: Die Spannende Geschichte der Virtualisierung

Als Cloud Computing in den Kinderschuhen steckte und fast niemand wusste, was das sein soll, und als gebäudefüllende Großrechenanlagen sich mit Prozessen abmühten, die heute jedes bessere Smartphone geräuschlos in Millisekunden erledigt, im Jahr 1954 – da gab es einen damals absolut phantastisch wirkenden Superrechner namens „Gold“. Er bestand aus einem Netzwerk aller Computer auf 96 Milliarden Planeten und arbeitete an der Frage, ob es Gott gibt. Seine Antwort: „Ja, jetztgibt es einen.“

 

Timeline der Cloud Entwicklung seit den 50er Jahren:

 

  • 1950er: "Dumme Terminals" an Großrechneranlagen im Time-Sharing-Verfahren, erste theoretische Gedankenansätze für Cloud Computing durch den Wissenschaftler Herbert Grosch von IBM.
  • 1960er: Vision des Rechenzentrums als "öffentliche Einrichtung", Großrechner können sich erstmals über Telefon-Wählleitungen miteinander verbinden.
  • 1970er: Glasfaser-Ausbau mit höheren Datenübertragungsraten und längeren Übertragungsstrecken als Wegbereiter der Cloud-Technologie.
  • 1980er: Application Service Provider (ASP) erscheinen auf dem Markt und bilden Vorläufer des heutigen Software-as-a-Service (SaaS).
  • 1990er: Durch Multi-Tenant-Software-Architekturen kann eine einzelne zentrale Software mehrere Mandanten gleichzeitig bedienen. Client-Server-Konzepte ermöglichen es, dass Unternehmen von mehreren Standorten aus auf ein zentrales ERP zugreifen können.
  • 2000er: ERP im Web - von jedem internetfähigen PC kann auf das firmeneigene ERP zugegriffen werden.
  • 2010er: Cloud-Technologie – flächendeckende und schnelle Internetzugänge ermöglichen Datenablage und den Zugriff auf komplexe Unternehmens-Applikationen, die weltweit und 24/7 zur Verfügung stehen.
 

 

Der hellsichtige Science-Fiction-Autor mit dem skurrilen Humor hieß Frederic Brown und inspirierte auch eine Episode von Star Trek. Vom Begriff "Cloud Computing" ahnte er wohl noch nichts. Aber mit der Idee vernetzter Rechner traf er ins Schwarze – zufällig genau zu der Zeit, als sich die DNS dieser Technologie zu formen begann.

Was geschah ein halbes Jahrhundert später? Mitte der 2000er Jahre wurde die Nutzung von Ressourcen in der Cloud durch Amazons AWS (Amazon Web Services) erstmals populär. Und 2009 lieferte das National Institute of Standards in den USA eine erste detaillierte Definition. Doch der Ursprung dieses Konzepts, nämlich das Teilen von Großrechner-Kapazitäten über einen entfernten Zugriff, war schon bei den riesigen Mainframes der 50er Jahre bekannt. Hier kommt eine kleine Historie des Cloud Computings, von diesen Anfängen bis – nur zum Beispiel – zur heutigen hyperintelligenten Service-Architektur.

 

Bis das Internet das Laufen lernte…

An den Großrechenanlagen, wo man mit Terminal-Bildschirmplätzen arbeitete, kam in den 50er-Jahren das so genannte "Time Sharing" auf. Somit ist der Mainframe ein früher Vorläufer des Cloud Computings, wie wir es heute kennen. Auf der Idee, dass mehrere Nutzer oder Anwendungen zentrale Rechenkapazitäten nutzen, basiert Cloud Computing bis zum heutigen Tag.

Etwas später kam ein weiteres embryonales Stadium des Cloud Computings: das Militär- und Universitätsnetzwerk ARPAnet, das 1969 ins Leben gerufen wurde. ARPAnet formte mit seinem dezentralen Konzept die Grundlage des Internets. Es bestand aus einer Infrastruktur von verteilten, aber miteinander vernetzten Computern.

Die Entwicklung der Cloud, wie wir sie heute kennen, begann breitenwirksam jedoch erst so richtig im Jahr 2006, nachdem Amazon seinen Service AWS (Amazon Web Services) gestartet hatte und erstmals Speicher- und Rechenkapazitäten an externe Kunden vermietete. Amazon machte damit eine Not zur Tugend: Das Unternehmen war einerseits darauf bedacht, auch unter Spitzenlasten (z. B. während des Weihnachtsgeschäfts) immer genügend leistungsfähige Ressourcen zur Verfügung zu haben. Andererseits bedeutete das ungenutzte teure Ressourcen außerhalb des Hochbetriebs. Doch diese ließen sich ja zu Geld machen. Heute hat sich bekanntlich der Amazon Web Service zum am schnellsten gewachsenen Software-Geschäftsmodell der IT-Geschichte entwickelt.

Branchenriese Apple startete seine iCloud, mit der das Cloud Computing endgültig in der breiten Masse ankam, im Jahr 2011. Der Dienst synchronisiert und speichert automatisch Fotos, Videos, Dokumente usw. von und für maximal zehn verschiedene Apple-Geräte eines Users.

 

Komponenten schrumpfen, die Cloud wächst

Der Weg von den ersten Ideen, Computer zu vernetzen, bis zur heutigen Cloud-Technologie war nur durch die zunehmend rasante Entwicklung von Hardware und Infrastruktur möglich. Ohne ausreichende (und das heißt: schwindelerregend hohe) Rechenleistung sowie die entsprechenden Bandbreiten bei der Datenübertragung waren die Speicherung von großen Datenmengen, deren Synchronisierung sowie der Einsatz von Collaboration-Tools völlig undenkbar. Die Verbreitung des Glasfaserkabels und des Mikroprozessors in den 70er Jahren ebneten diesen bis dahin unpassierbaren Weg.

Die ersten serienreifen Prozessoren von Intel machten Rechenleistung bedeutend billiger und sparten dramatisch Platz. Damit wiederum war die Startrampe für heutige Cloud-Riesen wie Microsoft und Apple frei: 1981 kam der erste PC auf den Markt – wenn auch das Datum umstritten ist, weil der Begriff Personal Computer mehrere Väter hat. Jedenfalls, ab diesem Zeitpunkt stand die Vernetzung PC-gestützter Arbeitsplätze zunehmend auf den Wunschzetteln von IT-Abteilungen, z. B. um ortsungebunden auf das Rechenzentrum eines Unternehmens zugreifen zu können. Erste Client-Server-Architekturen wurden aus dem Boden gestampft – zunächst nur auf die eigene Organisation begrenzt, später dann, durch schnelle Netzwerk-Verbindungen, ließen sich auch die IT-Landschaften mehrerer Organisationen miteinander verknüpfen.

Der forcierte Ausbau glasfaserbasierter Infrastruktur zu Beginn der 80er Jahre und die Verbreitung des PCs waren wie ein warmer Regen für ersten Keime der Cloud-Entwicklung. Mitte der 90er Jahre schuf die Gesellschaft für Mathematik und Datenverarbeitung (GMD, heute Fraunhofer-Institut) das BSCW-System - eine Groupware, die die Zusammenarbeit mehrerer User über das Internet ermöglichte und erste Cloud-Ansätze nutzte. Eigentlicher Auslöser des Cloud-Booms war aber das World Wide Web. Die Dotcom-Blase platzte; doch die heute global erfolgreichen Cloud-Provider sind allesamt Kinder dieser Entwicklung.

 

Sprache verbindet – von HTTP zu Facebook

Kommunikationsmittel wie z. B. E-Mail wurden schon zu Zeiten des ARPAnets erfunden. Zugleich testeten die Programmierer Netzwerk-Topologien, Regeln und Protokolle. Das TCP/IP-Protokoll etwa wurde 1982 im ARPAnet für die Vernetzung von Computern zum Standard erhoben. Und Tusch! – 1991 machte das CERN-Institut das daraus entstandene Internet für jedermann zugänglich und gab es offiziell frei.

Von da an ging alles sehr schnell: Das Hypertext Transfer Protocol (HTTP), von Tim Berners-Lee eingeführt, wird Standard des World Wide Web. Noch heute beginnen Web-Adressen mit "http://" bzw. "https://" in der verschlüsselten Variante. Mit HTTP wurde der Daten- und Informationsaustausch plötzlich viel einfacher. Flüssiger Datenverkehr war schon mal ganz gut; in Richtung Cloud Computing ging es weiter mit der Einführung von Services wie z. B. erste Onlinespeicher und Softwareanwendungen, die netzbasiert laufen. In Deutschland kam hinzu, dass Services, die zum Btx-Dienst der Deutschen Bundespost (Vorläufer der Telekom) gehörten, ins Internet umzogen. Anbieter wie CompuServe und AOL gingen später vergleichbare Wege.

Etwa ab dem Jahr 2004 nimmt das Web 2.0, wie wir es heute kennen, Fahrt auf: Facebook erscheint auf der Bildfläche und nutzt Cloud-Services im großen Stil.

 

Geschichte der Virtualisierung

 

Cloud Development aus technischer Sicht

Die Geschichte des Cloud Computing hat als IT-Strategie schon in den 80er Jahren mit Techniken wie Grid Computing eingesetzt. Bei dieser Methode der Zusammenschaltung von Computern ging es um eine höhere Rechengesamtleistung. Rechenintensive Operationen konnten so ausgelagert werden. Und erstmals ließ sich Rechenleistung an Dritte verkaufen. Zeitgleich schuf man auch softwaretechnische Methoden, mit denen die Rechenleistungen genutzt werden konnten.

Die Fachbegriffe Utility-Computing (Abrechnung von Rechenleistung und Services nach Verbrauch) und Software-as-a-Service (SaaS) wurden später im Begriff Cloud Computing zusammengefasst. Die damit verbundene Strategie schafft Möglichkeiten, Hard- und Software sowie Rechenleistung jederzeit zu nutzen, sobald sie benötigt werden. Aufwändige Datenoperationen können ebenso komplett in der Cloud betrieben werden wie unternehmenseigene ERP-Systeme. Jeder Nutzer mit Zugang zum Internet kann ortsunabhängig mit den Firmendaten und der benötigten Software arbeiten. Die erforderliche Rechenleistung ist dabei frei skalierbar.

Heute ist die Arbeit mit cloudbasierten Anwendungen aus Bereichen wie Dokumentenverarbeitung, Rechendienste oder Datenbankanwendungen gängige Praxis. Der Anwender weiß in der Regel nicht, wo seine Daten physisch gespeichert werden – es ist für ihn gar nicht relevant. Auch diese Tatsache hat zum Begriff der "Datenwolke" geführt.

 

Virtualisierung macht die Cloud zur Cloud von heute

Virtualisierung trennt Funktionen von physischer Hardware. Ein Server etwa braucht nicht mehr zwangsläufig auf einem eigens dafür abgestellten Server-PC zu laufen. Die Cloud beruht ebenfalls zum größten Teil auf Virtualisierung. Es geht hier darum, Arbeitsumgebungen aus abstrakten Ressourcen zu erstellen.

Betrachtet man das rein aus der Sicht von Infrastructure as a Service (IaaS), kann man sich Virtualisierung etwa so vorstellen: Die Grundlage bildet ein stabil laufendes Betriebssystem, das dem Nutzer vollständige Unabhängigkeit ebenso in Private- und Public-Cloud- wie in Hybrid-Umgebungen bietet. Bei einer vorhandenen Internet-Anbindung ist die Virtualisierung der nächste Schritt in Richtung Cloud Computing: Auf einem physischen Server (Host) läuft eine Hypervisor-Software: Sie managt Rechenleistung, Speicher und cloudbasierte Anwendungen und stellt diese jeweils unabhängig voneinander im Netz zur Verfügung. Bis zu diesem Punkt haben wir es jedoch „nur“ mit Virtualisierung zu tun. Der wirkliche Schritt in Richtung Cloud kommt mit den virtuellen Ressourcen, die wiederum in zentralen Pools zusammengefasst werden. Außerdem sind Automatisierungsprogramme und Management-Software erforderlich – nur durch solche Tools wachsen virtuelle Ressourcen zum Cloud Computing zusammen.

 

Und wie geht es mit Cloud Computing weiter?

Welche Entwicklungen die Zukunft des Cloud Computing bestimmen? – Stichworte schwirren genug durch die Luft: serverless; Multi-Cloud… aber das ist eine andere Geschichte.

 

Kontakt:

Wenn Sie noch mehr darüber wissen möchten, dann sind wir gerne für Sie da, per LinkedIn, Facebook oder Twitter.

Kommentieren

Kommentare ( 0 )
Please enter your name.Please provide a valid email address.Please enter a comment.CAPTCHA challenge response provided was incorrect. Please try again.