Ein neuer Bearbeitungsschritt, ein neues Signal: In der Demonstrationsfabrik auf dem Campus der RWTH Aachen melden die Materialwagen jedes Mal per Funk, wenn ein Werkstück den nächsten Produktionsabschnitt erreicht hat. Im Hintergrund surren die Server – in Echtzeit werden Transport- und Wartezeiten gespeichert, andere Algorithmen werten parallel die Sensordaten einzelner Werkzeuge und Maschinen aus.
Den Forschern des im Januar an der Hochschule gegründeten Center Enterprise Resource Planning (Cerp) geht es nicht allein um die Fertigung. Durch die Einbindung von Software, die Unternehmen zur Planung und Steuerung des Betriebs einsetzen, soll auch die Automatisierung abseits der Produktionshallen vorangetrieben werden: So könnte die Software selbstständig Nachschub aus dem Materiallager ordern, Kunden über den Fertigungsstatus informieren und den Logistikern mitteilen, welches Sendungsvolumen auf sie zukommt.
„Heute gibt es schon einzelne Systeme, die sehr gut ihre Arbeit erledigen“, sagt Jan Meißner, Leiter des Cerp. Nun gehe es darum, die Grenzen einzelner Programme in der Unternehmens-IT zu überwinden: „Wenn man anfängt, die Systeme zu vernetzen, kann man einen erheblichen Mehrwert schaffen.“
Genau daran hapert es in der Praxis oft noch. Zwar können moderne Produktionsmaschinen immer mehr Daten übermitteln und verarbeiteten – doch ohne eine übergreifende Architektur laufen viele Bemühungen Richtung Industrie 4.0 ins Leere. „Ich will meine Produktion ja nicht nur rein technisch automatisieren, sondern betriebswirtschaftlich voranbringen“, sagt Dirk Bingler, Sprecher der Geschäftsführung der in Köln ansässigen Softwarefirma GUS Deutschland.
Dass Maschinen und Unternehmens-IT in Zukunft besser ineinandergreifen müssen, ist in der Branche Konsens. Unterschiedlich sind aber die Vorstellungen darüber, an welcher Stelle die neuen und bestehenden Daten idealerweise zusammenlaufen. In einer guten Ausgangslage sehen sich Anbieter von Software für das Enterprise Resource Planning (ERP) wie GUS: In ihren Programmen sind bereits die betriebswirtschaftlichen Daten von Unternehmen abgebildet.
Immer stärker positionieren sie sich nun auch als Wegbereiter für die Industrie 4.0. So wollen Anfang Oktober auf der Fachmesse „IT & Business“ in Stuttgart sechs ERP-Anbieter in Live-Vergleichen beweisen, dass ihre Produkte vielen neuen Szenarien schon gewachsen sind.
Grenzen überwinden Banal ist der Sprung in die Welt der vernetzten Produktion nicht. „Es ist mit Sicherheit eine komplett neue Herausforderung, was die Offenheit dieser Programme angeht“, sagt Mario Raatz, Vorstandsmitglied des Karlsruher Anbieters Abas. ERP-Systeme seien gemeinhin für eher starre Prozesse bekannt. Hinzu kommt: Aktuell gibt es zahlreiche hochspezialisierte Branchenanwendungen. „Jetzt geht es darum, mit anderen Systemen zu kommunizieren – auch über Unternehmensgrenzen hinweg“, sagt Raatz.
Unter Druck geraten die ERP-Anbieter durch neue Konkurrenten. So verkaufen einige Maschinenhersteller mit der Hardware zunehmend Analysefunktionen für ihre Steuerungssoftware. Von der anderen Seite drängen Anbieter von Software für das Kundenbeziehungsmanagement in dem Markt: Schon in der Vergangenheit haben sie Module für Geschäftsprozesse angeboten, nun entdecken sie auch die digitale Produktion für sich.
Als Schaltzentrale dienen sich darüber hinaus neue Programme an, die speziell für Industrie-4.0-Anwendungen konzipiert wurden. In Kooperation mit dem Softwareanbieter Pickert & Partner entwickelte etwa das Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik (IPK) in Berlin ein „Industry Cockpit“: Hier sollen alle Informationen aus der Produktion, Logistik und Buchhaltung zusammenlaufen und visualisiert werden. „Je automatisierter man arbeitet, desto schwieriger wird es für den Menschen, das zu überblicken“, sagt Nicole Oertwig, wissenschaftliche Mitarbeiterin am IPK. Aktuell bietet das Programm vor allem eine Überwachungsfunktion, in Zukunft soll man aber auch in die Steuerung eingreifen können. Der Softwarebranche steht nach Einschätzung Oertwigs ein Wandel bevor: „Die klassischen Systemgrenzen werden sich auflösen.“
Das Ziel der übergreifenden Vernetzung eint die Marktteilnehmer, gemeinsam stehen sie vor einer großen Hürde: Noch fehlt oft eine gemeinsame Sprache für den Austausch der Maschinen untereinander und mit den Softwaresystemen. Selbst innerhalb eines Kommunikationsprotokolls legen Anbieter Parameter unterschiedlich aus. Man stoße daher immer wieder auf verschiedene „Dialekte“, sagt GUS-Chef Bingler: „Die Übersetzungsleistung ist die große Herausforderung.“
Zumindest zeichnet sich aber so etwas wie ein gemeinsamer Standard ab: Das Open Protocol for Communication Unified Architecture (OPC UA) hat sich in den vergangenen Jahren weit verbreitet und wird mittlerweile von den meisten Herstellern unterstützt. Sogar Cloud-Anbieter, bei denen Unternehmen bedarfsweise Rechen- und Speicherkapazitäten mieten können, docken an. So unterstützt zum Beispiel Microsoft OPC UA in seiner Plattform für das Internet der Dinge. Seit der vergangenen Woche bietet das Unternehmen den Dienst auch aus einem deutschen Rechenzentrum heraus an – es ist eine Reaktion auf die großen Datenschutzbedenken hierzulande.
Experten gehen davon aus, dass sich langfristig vor allem „hybride Modelle“ durchsetzen: „Zentrale Daten und Anwendungen wird man im Haus belassen, andere werden von außen hinzukommen“, erwartet Abas-Vorstand Raatz. Prädestiniert ist die Cloud etwa für die Analyse großer Datenmengen, die für die vorausschauende Wartung nötig ist. In einem komplett vernetzten Zukunftsszenario könnte die Unternehmenssoftware auf Grundlage der Cloud-Berechnungen früh feststellen, wann eine Reparatur nötig wird, den zuständigen Techniker informieren – und auch gleich dessen Einsatz verbuchen.
Erschienen im Handelsblatt am 27. September 2016.