Hybrid Cloud: Neue Risiken durch die neue IT-Welt

Es ist ein ständiger Spagat, den Burkhard Kehrbusch meistern muss. Der IT-Chef des Marktforschungsinstituts GfK sieht sich zwei Anforderungen gegenüber, die schwer miteinander vereinbar scheinen: Auf der einen Seite will das Unternehmen mit Stammsitz in Nürnberg zunehmend den gigantischen Datenberg analysieren, der sich über Jahrzehnte angesammelt hat. Angestellte an weltweit über 300 Standorten sollen den Kunden so neue Erkenntnisse liefern. Doch auf der anderen Seite „sind einige Geschäftsbereiche sehr sensibel, was diese Daten angeht“, sagt Kehrbusch.

Aus technischer wie betriebswirtschaftlicher Sicht bieten sich Cloud-Lösungen im Prinzip an: Sie sind leistungsfähig, flexibel erweiterbar und weltweit verfügbar. Spezialisierte IT-Dienstleister versprechen, die gerade benötigten Rechen- und Speicherkapazitäten sehr viel günstiger bereitzustellen, als die Firmen es aus eigener Kraft könnten. Doch die Vorbehalte sind bei vielen Geschäftsführern groß – sie scheuen sich, die Datenschätze ihrer Firma in fremde Hände zu geben.

Die GfK setzt nun auf einen Mittelweg, den auch andere Unternehmen verstärkt für sich entdecken: In einer sogenannten hybriden Cloud kombinieren sie interne und externe Server. Sensible Informationen können so im eigenen Rechenzentrum bleiben, gewohnte Programme weiter genutzt werden. „Es geht nicht um ein Entweder-oder, es geht um ein neues Und“, sagt Brian Gallagher, Leiter des weltweiten Cloud-Plattform-Teams beim frisch fusionierten IT-Riesen Dell EMC.

Neue Einfallstore Drei von vier deutschen Unternehmen wollen in Zukunft ihre IT-Umgebung zunehmend aus der Cloud betreiben, zeigt eine Studie von Crisp Research. Damit aus den beiden Welten ein effizientes System entsteht, sei jedoch ein „hohes Maß an Integrations-Know-how und Erfahrung nötig, das bislang nur in wenigen Unternehmen aufgebaut werden konnte“, schreiben die Autoren in ihrem Fazit.

Der Einstieg in die Hybrid Cloud erfolgt in der Regel mit Software, die Unternehmen hinzubuchen – populär sind etwa Programme für das Kundenbeziehungsmanagement. Auch E-Commerce- oder Kommunikationswerkzeuge liegen heute häufig in der Wolke. Über Schnittstellen werden dann Daten mit Anwendungen ausgetauscht, die sich noch auf den heimischen Servern befinden.

Das Risiko: Je mehr Schnittstellen es etwa zum Internet gibt, desto mehr potenzielle Einfallstore bestehen für Viren und schädliche Software. „Wenn Netze zusammengeworfen werden, können die Gefahren von dem einen auf das andere herüberwandern“, sagt Bernd Goger, Geschäftsführer des Dienstleisters Konica Minolta IT Solutions.

Entsprechend groß ist der Aufwand, der zur Absicherung betrieben werden muss.  Aktuell seien im Schnitt etwa zehn Prozent der Kosten in einem IT-Projekt für Security anzusetzen, sagt Sven Klindworth, beim Netzwerkspezialisten BT Leiter der IT-Beratung in Deutschland: „Für die Cloud wird sich dieser Anteil eher noch erhöhen.“

Das Sicherheitslevel der eigentlichen Cloud-Anwendungen ist nach Einschätzung von Bernd Goger indes oft höher als bei unternehmenseigenen Anwendungen: „Die Cloud-Anbieter haben unter sich einen enormen Wettbewerb, der Mittelständler kann da häufig nur gewinnen.“ Achten sollten Unternehmen aber auf Zertifikate, die die Einhaltung von Sicherheitsstandards belegen – und auf die genauen Vertragsbedingungen.

Ressourcen verschmelzen Zunehmend geht es bei der Hybrid Cloud aber nicht nur um einzelne Softwaredienste, sondern darum, interne und externe Rechen- und Speicherkapazitäten miteinander zu verschmelzen. Die Idee: Stoßen die lokalen Ressourcen an ihre Grenzen, wird Verstärkung aus der Cloud dazugebucht – besonders rechenintensive Vorgänge können so beschleunigt werden.

Die IT-Anbieter wittern ein Wachstumsfeld. In der vergangenen Woche erst haben Cloud-Primus Amazon Web Services und die auf Servervirtualisierung spezialisierte Dell-Tochter VMWare eine Partnerschaft verkündet, durch die sich solche gemischten Umgebungen einfacher realisieren lassen sollen. Die Anbieter versprechen, dass bestehende Anwendungen ohne aufwendige Anpassungen weiter genutzt werden können.

Wichtig bei Lösungen wie diesen aus Kundensicht: Der Wechsel zwischen internen Ressourcen und der Cloud muss automatisch stattfinden. „Der Administrator soll ja nicht nachts aus dem Bett geholt werden“, sagt BT-Manager Klindworth.  Umgekehrt solle sich die Cloud ausklinken, wenn die eigenen Rechner wieder ausreichen. „Die Server zu Hause habe ich schließlich schon bezahlt.“

Die Automatismen bringen aber neue Herausforderungen mit sich. Die Firmen müssen schon im Vorfeld festlegen, welche Daten die eigenen Server nicht verlassen dürfen – und welche sogar bevorzugt in die Cloud geschickt werden.  Auch ein passender technischer Schutz muss gewählt werden. „Ich muss das Thema Sicherheit von Anfang an mit durchplanen“, rät Klindworth.

Firewalls aus der und für die Cloud sind dabei Standard gegen Viren und bösartige Programme. Per Identifikationsmanagement lässt sich genau festlegen, wer Zugriff auf welche Daten hat. Zum Schutzpaket kann auch gehören, schon den Datenverkehr hin zum Unternehmen von Dienstleistern analysieren zu lassen. „Da sind komplexe Lösungsansätze gefragt, um das Unternehmen zu entlasten“, sagt Goger.

Erschienen im Handelsblatt am 19. Oktober 2016.

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *