senseering

   ANNOUNCEMENTS     PIONEERING     MYDATAECONOMY     SERVICES     ABOUT

Monetarisierung von Fertigungsdaten

Bausteine, Herausforderungen und Lösungen für industrielle Datenmarktplätze für produzierende Industrien


 27. Jul'20

Autor Daniel Trauth 


Header. Bild: © senseering | Semjon Becker



Co-Authors: T. Bergs, C. Gülpen, W. Maaß, Johannes Mayer, H. Musa, Philipp Niemietz, F. Piller, A. Rohnfelder, M. Schaltegger, S. Seutter, J. Starke, E. Szych, Martin Unterberg


 . . .

This article is also available in English.

 . . .


Prolog

Im Jahr 2018 wurde zusammen mit dem WZL der RWTH Aachen University innerhalb des von der senseering GmbH und dem WZL gegründeten Industrial IOTA Lab Aachen die Vision einer Datenökonomie für die Fertigungstechnik skizziert. Dieser Beitrag setzt die Vision fort und fokussiert dabei auf mögliche Monetarisierungsstrategien, um Anreize für Wirtschaft und Gesellschaft zu formulieren.


  . . .


Präambel

Dieser Artikel wurde offiziell veröffentlicht auf:

Fraunhofer-Publica [16 MByte PDF].

Wenn Sie diesen Artikel zitieren möchten, verwenden Sie bitte:

Trauth, D.; Bergs, T.; Gülpen, C.; Maaß,W.; Mayer, J.; Musa, H.; Niemietz, P.; Rohnfelder, A.; Schaltegger, M.; Seutter, S.; Starke, J.; Szych, E.; Unterberg, M.: Monetarisierung von Fertigungsdaten. In: Internet of Production — Turning Data into Value: Statusberichte aus der Produktionstechnik 2020 (Herausgeber: Bergs, T.; Brecher, C.; Schmitt, R.; Schuh, G.). Aachen: Fraunhofer IPT, 2020, Seiten 377.


. . .

 

Vorwort

Dieser Artikel wurde auf der Grundlage der Ergebnisse der Expertengruppe des Aachener Werkzeugmaschinen-Kolloquiums AWK 2021 erstellt. Folgende Experten waren beteiligt:

Dr.-Ing. Dipl.-Wirt.Ing. Daniel Trauth (senseering GmbH), Prof. Dr.-Ing. Thomas Bergs (WZL der RWTH Aachen), Christian Gülpen (TIM der RWTH Aachen), Prof. Dr.-Ing. Wolfgang Maaß (DFKI GmbH), Johannes Mayer (WZL der RWTH Aachen), Heiko Musa (BMW Group), Philipp Niemietz (WZL der RWTH Aachen), Frank Piller (TIM der RWTH Aachen), Andreas Rohnfelder (Fujitsu Deutschland GmbH), Markus Schaltegger (Feintool AG), Sebastian Seutter (Microsoft Deutschland GmbH), Joachim Starke (BMW Group), Elmar Szych (Dell EMC GmbH), Martin Unterberg (WZL der RWTH Aachen)


. . .

 

Table of Contents

  1. Einleitung
  2. Datamonetarisierung
  3. Potenziale für die industrielle Produktionstechnik
  4. Bausteine, Herausforderungen und Lösungen
  5. Szenarien für die Fertigungstechnik
  6. Fazit

Literatur


. . . 

 

Kurzfassung

Eine Monetarisierung von Fertigungsdaten ermöglicht Unternehmen der fertigenden Industrie eine Steigerung ihrer Produktivität und Nachhaltigkeit. Neben dieser Optimierung bestehender Geschäftsmodelle können Unternehmen durch eine Monetarisierung von Fertigungsdaten gleichzeitig neue Einkommensströme erschlossen werden durch neue digitale und progressive Geschäftsmodelle. Durch Fortschritte im Bereich der Künstlichen Intelligenz und der Datenverarbeitung können Erkenntnisse aus Fertigungsdaten gezielt gewonnen und im Rahmen von Daten-Allianzen ausgetauscht werden. In diesem Beitrag werden verschiedene Stufen der Datenverwertung von der Wissensgenerierung bis hin zur Monetarisierung dieser Daten konzipiert, technische Grundlagen dargestellt sowie resultierende Potenziale, Hindernisse, und deren Lösungen diskutiert und anhand praxisorientierter Anwendungsfälle verdeutlicht. Abschließend werden Handlungsempfehlungen für Unternehmen der fertigenden Industrie abgeleitet und eine potenzielle Monetarisierungsstrategie für Fertigungsdaten ausgelegt.


. . .

  

 1. Einleitung

Neben der unternehmensinternen Nutzung von Fertigungsdaten birgt auch der unternehmensübergreifende Austausch von Fertigungsdaten ein hohes Optimierungs- und Innovationspotenzial. Mit Hilfe geeigneter Modelle künstlicher Intelligenz (KI) können bislang verborgene Kausalitäten und Korrelationen identifiziert und über Unternehmensgrenzen hinweg nutzbar gemacht werden. Ein indirekter unternehmensübergreifender Austausch von Unternehmens-Know-How wurde in den 1980er Jahren im Zuge des Aufstiegs der Computerindustrie im heutigen Silicon Valley in den USA beobachtet. Der Wechsel von MitarbeiterInnen zu konkurrierenden Firmen, und mit ihnen ihr Wissen, zeigte einen überproportionalen Effekt auf das Wachstum und die Innovation der gesamten Branche, also auch auf die Unternehmen, die verlassen wurden. Der allgemein als Knowledge-Spillover [1] bezeichnete Effekt geht auf die Forschung der Ökonomen Alfred Marshall, Kenneth Arrow und Paul Romer (auch als Marshall-Arrow-Romer (MAR) Spillover Effect bekannt [2]) zurück. Nach der MAR-Spillover-Betrachtung beeinflusst die regionale Nähe von Firmen innerhalb einer gemeinsamen Industrie, ob und wie das Wissen zwischen den Firmen wandert, um Innovation und Wachstum zu erleichtern. Es konnte nachgewiesen werden, dass der Effekt mit geringerer geografischer Distanz von Firmen einer ähnlichen Branche stärker ausgeprägt war. Der Austausch von Ideen und Wissen über neue Produkte und neue Wege zur Herstellung von industriellen Gütern findet weitestgehend zwischen Angestellten verschiedener Firmen einer Branche statt (vgl. Abbildung 1a). Die Möglichkeit, innovative Ideen auszutauschen, ist der Schlüssel zu neuen Produkten und verbesserten Produktionsmethoden. In der jüngsten Vergangenheit wiederholte sich das erfolgreiche und großflächige Auftreten des Knowledge-Spillover-Effekts in dem regionalen Cluster der Filmindustrie um Los Angeles, USA, sowie innerhalb der Social-Media-Industrie um Facebook, YouTube und Twitter [3]. Im Falle komplexer Unternehmensprozesse und Produkte führt eine Mitarbeiterwanderung alleine nicht zu Knowledge-Spillover-Effekten [4]. Höchst spezialisierte Fertigungsfolgen komplexer Produkte erfordern das Zusammenwirken und die Abstimmung vieler individueller Mitarbeiterkompetenzen. Einzelne Mitarbeiter können dieses Know-How daher nicht alleine zu Innovationszwecken in andere Unternehmen tragen. Neben explizitem Wissen von Mitarbeitern ist Unternehmens-Know-How aber auch durch implizites Wissen vorhanden, das in Rohdaten encodiert ist. Rohdaten sind in der Regel ohne eine entsprechende Vorverarbeitung und Decodierung nicht wertvoll.

 

 Abbildung 1: Schematische Darstellung personeller (a) und datengetriebener Knowledge-Spillover-Effekte (b/c). Bild: © WZL & Senseering GmbH



Die Vernetzung von produzierenden Unternehmen im Sinne eines Internet of Production (IoP) ermöglicht durch die Verarbeitung und Decodierung von Rohdaten eine domänenübergreifende Zusammenarbeit zwischen Entwicklung, Produktion und Nutzung. Je nach Anwendungsfall werden die Rohdaten aus diesen Domänen erst durch ihre zeitnahe Verfügbarkeit, gute Organisation, ihren Kontext, und die Analyse mit geeigneten Modellen zu nutzbarem Wissen. Datengetriebene Knowledge-Spillover-Effekte sind solche Effekte, die durch den unternehmensinternen oder unternehmensübergreifenden Austausch von aus Rohdaten gewonnenem Wissen entstehen. Diese Effekte können von Unternehmen systematisch durch das Bilden von Daten-Allianzen selbst bei komplexen Prozessen und Produkten durch die Nutzung künstlicher Intelligenz (KI) zur Schaffung von Innovationen und Optimierung bestehender Prozesse genutzt werden (vgl. Abbildung 1b und 1c). Dabei müssen Unternehmen einen ausreichend interoperablen Vernetzungsgrad aufweisen. Datenmodelle und Daten-Managementsysteme müssen innerhalb einer solchen Daten-Allianz vernetzt werden, sodass aus der Bereitstellung von Rohdaten und der anschließenden Aggregation und Transformation mithilfe geeigneter Modelle nutzbares Wissen entsteht [5]. Die Potenziale im Rahmen von Daten-Allianzen datengetriebene Knowledge-Spillover-Effekte zu nutzen stehen der Skepsis von Unternehmen hinsichtlich Datenhoheit, Data Privacy und insbesondere der Unklarheit über die Werthaltigkeit der eigenen Daten diametral entgegen.

In diesem Beitrag werden verschiedene Stufen der Datenverwertung von der Wissensgenerierung bis hin zur Monetarisierung dieser Daten konzipiert, technische Grundlagen dargestellt sowie die Potenziale, Hindernisse, und deren Lösungen diskutiert und anhand praxisorientierter Anwendungsfälle verdeutlicht.


 . . . 

  

2. Datenmonetarisierung

In Industrien, wie z. B. der Telekommunikations- und der Werbeindustrie, werden Prozess-, Produkt-, und Nutzungsdaten bereits zum Zweck der Produkt- und Prozessoptimierung verwendet, weshalb auch die Bepreisung von Daten im Sinne eines wirtschaftlichen Guts in diesen Industrien erfolgreich funktioniert [6]. Das ist insbesondere darin begründet, dass die Verfügbarkeit und die Nutzung von Daten in diesen Industrien seit längerem ein Teil ihrer Produktpalette sind. Das ermöglicht sowohl die Nutzung als auch den Austausch von Daten als wirtschaftliches Gut und damit eine Datenmonetarisierung.

Der Begriff Datenmonetarisierung schließt dabei nicht nur die im Sprachgebrauch genutzte Bedeutung eines direkten Tauschs von Incentives für ein digitales Datum ein. Vielmehr ist eine Erweiterung des Begriffs auf die Verwertung eines Datums und des darin enthaltenen Wissens zur Generierung eines monetären Mehrwerts sinnvoll. Im fertigungstechnischen Umfeld kann dieser monetäre Mehrwert zum Beispiel in Form von einer Steigerung der Durchlaufzeit, Qualität und einer Verringerung der Kosten erfolgen. Die Monetarisierung von Fertigungsdaten beschreibt folglich jeden Vorgang, der einen messbaren ökonomischen Vorteil durch die Verwendung von (aggregierten und transformierten) Fertigungsdaten zur Nutzung datengetriebener Knowledge-Spillover-Effekte schafft. Es lassen sich zwei grundlegende Kategorien unterscheiden.

Die interne Monetarisierung von Fertigungsdaten ist als Klasse von Strategien und Vorgängen innerhalb eines Unternehmens der fertigenden Industrie zu verstehen, welche durch vertikale Prozessanalysen mit Hilfe von Erkenntnissen aus eigenen oder zugekauften Fertigungsdaten Unternehmens-, Fertigungsprozesse, oder Produkte optimieren und ökonomischen Mehrwert generieren. Unternehmensintern lassen sich ökonomische Mehrwerte am schnellsten verwirklichen, da der Anspruch an Datensicherheit, Datensouveränität und Datenschutz firmenintern in der Regel niedriger ist als bei einer externen Datenmonetarisierung, weil sensible Daten das Unternehmensnetzwerk nicht verlassen müssen. Mehrwerte einer internen Datenmonetarisierung sind in Abbildung 2 aufgeführt.


 Abbildung 2: Mehrwerte einer internen Datenmonetarisierung. Bild: © WZL & Senseering GmbH



Mit geringem Aufwand können neue Erkenntnisse über Produktions- oder Geschäftsprozesse gewonnen, Entscheidungslatenzen reduziert, Produkte optimiert, und Risiken minimiert werden. Die Effekte der internen Datenmonetarisierung zielen dementsprechend auf eine Steigerung der Profitmarge von bestehenden Geschäftsprozessen und -modellen.

Die externe Monetarisierung von Fertigungsdaten ist eine Klasse von Strategien und Vorgängen, welche interne Fertigungsdaten und Erkenntnisse aus Daten durch entsprechende analytische Modelle in Form von horizontalen Analysen entlang der Wertschöpfungskette und über Unternehmensgrenzen hinweg und auf digitalen Geschäftsmodellen basierend zur Verfügung stellt. Das Erfüllen der Anforderungen an Datensicherheit und -schutz ist eine notwendige Voraussetzung für eine derartige Monetarisierungsstrategie, weil interne und unter Umständen sensible Unternehmensdaten über Unternehmensgrenzen hinweg ausgetauscht werden. Eine Umsetzung verspricht die Erschließung neuer Einkommensströme und die Gewinnung neue Marktanteile durch digitale, innovative, und progressive Geschäftsmodelle und digitale Incentives (siehe Abbildung 3). Die Wertschöpfung des traditionell geprägten Maschinenbaus erweitert sich im Zuge einer externen Datenmonetarisierung, da neben physischen Produkten auch digitale Produkte in Form von Daten und Services an Kollaborateure und Interessenten veräußert werden können.


  Abbildung 3: Mehrwerte einer externen Datenmonetarisierung. Bild: © WZL & Senseering GmbH



Während die interne Datenmonetarisierung schon heute in unterschiedlichsten Fertigungsverfahren möglich ist und genutzt wird [7], ist eine externe Datenmonetarisierung in der Produktionstechnik noch nicht etabliert. Einer der Hauptgründe hierfür ist die große Skepsis vieler Unternehmen ihre Daten an Dritte weiterzugeben bei gleichzeitiger Unwissenheit, wieviel existenzsicherndes Know-How eines Unternehmens in den Daten repräsentiert ist und welchen Wert die eigenen eigenen Daten haben. Das Risiko, potenziell sehr wertvolle Daten zu günstig zu veräußern, ist vielen Unternehmen zu hoch. Das erschwert eine Bepreisung und damit die Offenheit im Handel mit Unternehmensdaten. Für Unternehmen ist es in den meisten Fällen unmöglich, die Potenziale eigener Datensätze durch den Einsatz KI-gestützter Methoden zu ergründen, mangels eigener, personengebundener KI-Expertise. Somit besteht ein Abhängigkeitsverhältnis mit externen Dienstleistern, das wiederum Hemmnisse in Sachen Data Privacy und Datenhoheit erzeugt.

Ein möglicher Lösungsansatz besteht in der Nutzung von KI-basierten Services, die Vorhersagen aufgrund von anonymisierten Rohdaten treffen. Über ein geeignetes Beteiligungsmodell können die Datenerzeuger an den Erkenntnissen und Innovationen, die aus ihren Daten hervorgehen, partizipieren. Der Wert eines Datums ist somit unmittelbar an die Qualität und Verfügbarkeit digitaler KI-basierter Services gekoppelt.

 

 . . . 


3. Potenziale für die industrielle Produktionstechnik

Die Anwendungsmöglichkeiten einer Monetarisierung von Fertigungsdaten sind vielfältig und versprechen einen ökonomischen Mehrwert von über 100 Mrd. US.-$ (siehe Abbildung 4) [8].

 

 Abbildung 4: Potenziale einer Datenmonetarisierung in der industriellen Produktionstechnik. Insbesondere die Anlagenoptimierung sowie die Produkt- und Prozessüberwachung bergen ein hohes ökonomisches Potenzial [8]. Bild: © WZL & Senseering GmbH



3.1 Anlagenoptimierung

Daten von unvorhersehbaren und unerwarteten Maschinenausfällen sind rar. Das Training datengetriebener Modelle um robuste Vorhersagen zu treffen erfordert jedoch Informationen über genau solche unerwarteten Events. Daten des selben Maschinentyps von unterschiedlichen Maschinenbetreibern ermöglichen die Verbesserung von Instandhaltungsmaßnahmen im Sinne einer Predictive Maintenance durch datengetriebene Prädiktionsmodelle und somit eine gesteigerte Maschinenlaufzeit und Produktqualität [9] durch datengetriebene Knowledge-Spillover-Effekte. Die Verfügbarkeit von Daten, die zur Anlagenoptimierung genutzt werden können, erfordert ein Mindestmaß an sensorischer Messausstattung. Dabei ist eine Interoperabilität dieser Messausstattung von Bedeutung, um eine zuverlässige Datenerfassung sicherzustellen. Zeitreihen, die beispielsweise in Form eines akustischen Signals den Verschleißzustand eines Werkzeugs überwachen, müssen unter Umständen mit Event-Daten aus der Betriebsdatenerfassung der Anlage angereichert werden um verlässliche Schlüsse über den Prozess zuzulassen. Durch eine externe Datenmonetarisierung und damit den Zukauf von Daten anderer Produzenten mit den gleichen oder ähnlichen Anlagen können datengetriebene Modelle im Sinne eines Transfer Learnings weiter angereichert und verfeinert werden [10].


3.2 Produkt- und Prozessüberwachung

Der Austausch von Daten, die produkt- bzw. prozessrelevante Informationen, z. B. über den Standort von Produkten oder den Status von Prozessen, beinhalten, ermöglicht eine unmittelbare Reaktion auf Störungen und Fehler in Liefer- und Wertschöpfungsketten [8]. Bestände in bestimmten Produktkategorien und Materialien können durch die Kenntnis der aktuellen Geoposition von Gütern oder dem Bestand eines Kunden und dessen Prozesszuständen bedarfsgerecht minimiert und maximiert sowie Prozesse genauer geplant und getaktet werden. Der Unterschied zu einem herkömmlichen RFID-Tracking ist die durchgängige End-to-End-Visability, die durch einen unmittelbaren Datenaustausch und eine externe Datenmonetarisierung gewährleistet wird [11]. Fehler während der Lieferung von Teilen können entweder durch Sicherheitsbestände oder automatisches Ausweichen auf andere Lieferanten kompensiert werden und damit die Resilienz von Unternehmen der fertigenden Industrie steigern. Die digitale Abbildung der Prozesskette dient dabei dem Nachweis bei der Klärung von Haftungsfragen und der Predictive Maintenance.

Die Produkt- und Prozessüberwachung ermöglicht zusätzlich den zertifizierungsrelevanten Nachweis der Einhaltung ausgewählter Parameter, wie z. B. der Temperatur oder einem Höchstmaß an Vibrationen während der Produktion oder des Transports. Der direkte Zugriff auf die jeweils relevanten Daten ermöglicht bspw. auch das Wechseln eines Lieferanten bei oder das Vermeiden von Verschwendungen.


3.3 Austausch von Produkteigenschaften

Produkteigenschaften wie die exakte Bauteilgeometrie oder die Werkstoffeigenschaften eines Halbzeugs können mit Hilfe eines digitalen Zwillings repräsentiert werden. Der Austausch eines digitalen Zwillings ermöglicht es überdies, Produktionsprozesse individuell zu synchronisieren und zu optimieren. Durchgängige Qualitätskontrollen bei Wareneingang werden durch die Rückverfolgbarkeit obsolet [12]. Der digitale Zwilling erweitert die Datenbasis eines CAD-Modells um die tatsächlichen Dimensionen und Qualitäten eines Bauteils in Folge der verschiedenen Produktionsschritte und ermöglicht so eine datengestützte Auditierung bzw. Zertifizierung. Die möglichst feingranulare Repräsentation eines Produktes durch einen digitalen Zwilling erfordert eine intensive Zusammenarbeit zwischen den verschiedensten Partnern der Wertschöpfungskette, birgt jedoch das Potenzial sowohl für Lieferanten als auch für Produzenten, ihr operatives Geschäft mittels externer und interner Datenmonetarisierung zu optimieren.


3.4 Verifikation der Herkunft

Ein Nachweis über die Herkunft ausgewählter Güter steht verstärkt im Fokus vieler Kunden. Jeder Produktionsschritt ist letztlich von den gelieferten Produkten abhängig. Ein Produzent muss seinen Lieferanten das Vertrauen entgegenbringen, dass dessen Produkte z. B. die vereinbarten Qualitätsanforderungen erfüllen. Andernfalls wäre die Prozessauslegung nicht korrekt und das Endprodukt fehlerhaft. Könnte der Produzent Daten im Sinne einer externen Datenmonetarisierung erwerben, die den Produktlebenszyklus abbilden, hätte er im Falle einer Mangelerscheinung eine sichere Beweisgrundlage. Weiterhin ist, insbesondere hinsichtlich zu erwartender Regulationen und gesellschaftlicher Veränderungen, künftig eine Verifikation der Herkunft von Rohstoffen, Halbzeugen oder Produkten denkbar, die einen bestimmten CO2 Fußabdruck garantiert. Unternehmen könnten somit Anreize erhalten, einen möglichst geringen CO2 Fußabdruck zu hinterlassen.


. . .


4. Bausteine, Herausforderungen und Lösungen

Unternehmen müssen in ihrer Datenakquise- und Datenverarbeitungsstrategie bestimmte Voraussetzungen erfüllen, damit eine Monetarisierung von Fertigungsdaten gelingt. Fertigungsdaten sind im Ausgangszustand roh, unveredelt und stehen in keinem Kontext zueinander. Sie haben somit per se keinen Wert, solange sie nicht einem Kontext zugeordnet werden können, der ihnen eine Bedeutung gibt. Analytische Modelle können Daten dementsprechend ohne einen Kontext nicht in Informationen transformieren. Die Vorhersage eines Qualitätsmerkmals eines Bauteils hat bspw. keinen Mehrwert, wenn der Kontext der Analyse, wie z. B. der betrachtete Zeitraum, unklar ist. Gleichzeitig ist für Unternehmen kritisch, welche Informationen Sie in Kontext zueinander bringen und welche nicht, weil somit Rückschlüsse auf gegebenenfalls kritische Mitarbeiterkennzahlen getroffen werden können. Hieraus ergeben sich verschiedene Bausteine und Herausforderungen sowohl für interne als auch externe Datenmonetarisierungsstrategien, die im Folgenden näher analysiert werden. Weiterhin werden entwickelte Lösungen für diese Herausforderungen in Form von Daten-Allianz-Architekturen, Enabler-Technologien und möglichen Beteiligungsmodellen aufgezeigt.


4.1 Bausteine für eine Datenmonetarisierung

Die Datenqualität setzt sich aus der Größe der zur Verfügung stehenden Datenbasis mit Blick auf die zu lösende Fragestellung, dem Kontext in welchem die Daten zu anderen Datensätzen stehen, und dem Grad der Datenbereinigung zusammen. Datenbereinigung ist hierbei der Prozess des Erkennens und Korrigierens (oder Entfernens) unvollständiger oder ungenauer Datenpunkte aus einem Datensatz, einer Tabelle, oder einer Datenbank. Sie bezieht sich auf das Identifizieren unvollständiger, falscher, ungenauer, oder irrelevanter Teile der Daten und das anschließende Ersetzen, Ändern, oder Löschen verunreinigter oder grober Daten [13]. Nach der Bereinigung sollte ein Datensatz vollständig und mit ähnlichen Datensätzen im System konsistent sein.

Um die Potenziale einer Datenbasis bergen zu können, müssen Unternehmen die Datenakquise sowie die Datenaufbereitung aus eigenen Ressourcen und Mitteln verwirklichen, da die Individualität der in der Produktion eingesetzten Lösungen und Schnittstellen zwingend Einzellösungen erfordert. Hierbei obliegt es den Teilnehmern einer Daten-Allianz, ein einheitliches Format bestimmter Datentypen zu definieren, das von den Teilnehmern dann individuell verwirklicht wird.

In der Modellbildung mit KI werden z. B. statistischen Lernverfahren mithilfe geeigneter bereinigter Datensätze trainiert, um Kausalitäten und Korrelationen zu identifizieren. In der fertigenden Industrie sind neben Eventdaten (z. B. Maschinenstatus und Prozessstatus) auch univariate und multivariate Zeitreihen häufig auftretende Datentypen. Neben traditionellen maschinellen Lernverfahren in Form von Regressoren und Klassifikatoren, wie z. B. Convolutional Neural Networks [14] oder Support Vector Machines [15] zur Analyse von Zeitreihen, eignen sich auch hybride Ansätze mit Fuzzy Logic [16] und Process Mining [17] für einen Einsatz in der fertigenden Industrie, z. B. in der Produktionsplanung.

Unter Smart Services wird die höchste Ebene digitaler Infrastrukturen verstanden, welche die Daten Cyber-physischer Systeme analytisch verdichten und solche Erkenntnisse extrahieren, die für die Entscheidungsfindungen von Bedeutung sind. Smart Services werden entwickelt um diese Erkenntnisse kontextbezogen, bedarfsorientiert über Plattformen mehrwertstiftend bereitzustellen und auch fachfremdem Personal zugänglich aufzubereiten [18]. Diese breite Nutzbarkeit ermöglicht Innovationen und Wertsteigerungen bestehender und neuer Technologien und Produkte (vgl. Abbildung 5).

 

 Abbildung 5: Bausteine für eine Datenmonetarisierung zur Innovations- und Wertsteigerung. Bild: © WZL & Senseering GmbH



Diese grundlegenden Bausteine zur Veredelung von Unternehmensdaten sind notwendig, um das implizit in Daten enthaltene Wissen für die Anwendungsfälle in den Unternehmen nutzbar zu machen. Abbildung 6 zeigt dabei schematisch die Bedeutung dieser grundlegenden Schritte auf. Um KI gewinnbringend einsetzen zu können, müssen die Grundvoraussetzungen in der Datenakquise und -verarbeitung erfüllt werden und ein Mindestmaß an Forschungs- und Entwicklungskapazitäten (FuE) in die Entwicklung der Datenqualität (Datenbasis, Kontext, und Datenbereinigung) investiert werden. Das Risiko für FuE Investitionen im Bereich KI kann dann durch die Nutzung von Dienstleistungen an externe Experten ausgelagert werden.

 

 Abbildung 6: Steigerung des Datenwerts durch interne und externe FuE Aufwände. Bild: © WZL & Senseering GmbH



Zusätzliche Bausteine betreffen vor allem die Datensicherheit und Privatsphäre, was die in Daten enthaltenen sensiblen Informationen über Mitarbeitereffektivität, Maschinenauslastung oder technologische Details miteinschließt. Durch eine Anonymisierung von Daten und Entfernen kritischer Metainformationen können diese Herausforderungen bereits entschärft und umgangen werden.


Weitere Faktoren mit einem Einfluss auf den Wert von Daten können wie folgt zusammengefasst werden.

  1. Die Aktualität der Daten ist in zahlreichen Anwendungsfällen essenziell. Sollen beispielsweise Maschinendaten zu Wartungszwecken ausgewertet werden, ist die Aktualität der Daten unumgänglich. Stehen diese Maschinendaten erst nach mehreren Tagen zur Verfügung, können sie zwar immer noch in datengetriebene Modelle eingearbeitet werden, haben jedoch keine Aussagekraft mehr über den aktuellen Zustand einer Maschine im Sinne einer Echtzeitüberwachung eines Maschinenparks.
  2. Ein Datum, das potenziell viele Interessenten besitzt, kann mehrfach verkauft oder ausgetauscht werden. Der Wert eines Datums kann aber auch durch die Exklusivität des Besitzes wertvoll sein, und durch einen Mehrfachverkauf signifikant bis vollständig seinen Wert verlieren. Besitzt ein Unternehmen beispielsweise exklusive Informationen, wann es zum Ausfall bestimmter Maschinenkomponenten kommt, können benötigte Services vorbereitet und den Kunden direkt zur Verfügung gestellt werden, ohne Konkurrenzdruck. Besitzen jedoch Konkurrenten ebenfalls die jeweiligen Informationen, besteht kein Wettbewerbsvorteil alleine durch Kenntnis der Information.
  3. Erst durch die Entwicklung von KI Modellen und einer Erprobung dieser in geeigneten Anwendungsszenarien kann das ökonomische Potenzial bestimmter Daten bestimmt werden. Werden aus bestimmten Datensätzen sehr genaue Vorhersagemodelle beispielsweise zum Verschleiß von Werkzeugkomponenten entwickelt, kann der Wert der Daten überdies nachträglich steigen.
  4. In der Entwicklung von KI-Modellen sind vor allem Datensätze mit Anomalien wertvoll, weil diese oft rar aber unabdingbar für die Performance von KI-Modellen sind. Enthalten Datensätze nachweislich eine hohe Anzahl an Anomalien oder ließen sich Anomalien vorher identifizieren und dediziert zum Kauf anbieten, kann die Bewertung dieser Daten überdurchschnittlich hoch sein.
  5. Der Umfang des Kontextes, in dem sich die Daten mit anderen (gegebenenfalls unternehmensexternen) Quellen befinden ist entscheidend für den potenziellen Wert eines Datums. Daten können potenziell mit Hilfe weiterer Datenquellen ausgewertet werden und damit weitreichendere Schlussfolgerungen zulassen als isoliert betrachtete Datenquellen.

Eine Monetarisierung von Fertigungsdaten findet in der industriellen Produktionstechnik bislang noch nicht in umfassendem Maße statt. Die Gründe hierfür sind vielfältig und werden im Folgenden ausgeführt.


4.2 Woran die Monetarisierung von Fertigungsdaten scheitert

Die Unklarheit über den Wert von Daten führt zu einer großen Unsicherheit von Unternehmen in ex ante Investitionen [19]. In der fertigenden Industrie sind häufig alte Fertigungsmaschinen in Betrieb, die zwar ihre ursprünglichen Funktionsweisen immer noch erfüllen, allerdings keine Möglichkeit zur Datenerfassung haben. Diese Maschinen werden in der industriellen Praxis zumeist nicht mittels Retrofitting mit umfassenden Möglichkeiten zur Datenerfassung und -verarbeitung in Form von hochfrequenter Sensorik und Edge Devices ausgestattet, wenn der Mehrwert dieser Ausrüstung unklar ist. Werden in Einzelfällen Maschinen dann doch mittels Retrofitting nachgerüstet, weil einer bestimmten Fragestellung nachgegangen wird, entstehen häufig Insellösungen ohne Interoperabilität und auf Basis verschiedener, unter Umständen untereinander inkompatibler Protokolle. Mit einer mangelnden oder unzureichenden Akquise von Fertigungsdaten können dann wiederum keine präzisen datengetriebenen Modelle trainiert werden, die einen echten Mehrwert aus den Rohdaten generieren.

In Unternehmen in denen hingegen erfolgreich in ausreichendem Maß Fertigungsdaten erfasst werden, werden allerdings nur verhältnismäßig wenige dieser erhobenen Fertigungsdaten zu Analysezwecken genutzt (vgl. Abbildung 7) [21]. Das ist u. a. in einem Mangel an Fachkräften oder Smart Services im Bereich Data Science begründet. Statistiken zufolge existieren weltweit nur ca. 300.000 KI-Entwickler, während der Bedarf an ebendiesen im Millionenbereich liegt [20]. Ein zuverlässiges und interoperables Angebot an KI-basierten Smart Services existiert bislang noch nicht für die Produktion. Ohne eine professionelle Datenaufbereitung und -analyse können keine Informationen aus erhobenen Fertigungsdaten extrahiert werden.


 Abbildung 7: Datensilos verhindern eine erfolgreiche Monetarisierung von Fertigungsdaten. Bild: © WZL & Senseering GmbH



Weiterhin existieren in Unternehmen häufig Bedenken bzgl. der Herausgabe von Daten an Dritte. Eine Studie des Bitkom e.V. und der KPMG AG besagt, dass 74% der befragten Unternehmen Bedenken bei der Weitergabe von Daten an Drittanbieter haben [22]. Ein häufig diskutierter Aspekt ist die Frage des Treuhänders, welcher die Sicherheit und Auditierbarkeit der Nutzungs- und Kaufprozesse von Daten garantiert. Zentralistische Entitäten, die große Datenmengen aller Teilnehmer zentral in einer Plattform sammeln und verwalten, werden skeptisch betrachtet, da ein Zugriff auf eine Vielzahl unterschiedlicher Unternehmensdaten über eine zentrale Plattform ermöglicht wird. Eine Lösung für dieses Problem ist eine Art dezentraler Datenmarktplatz zum Austausch und Handel von Daten. Die Sicherstellung der Datenhoheit und -integrität erfordert dabei neuartige Technologien, um das Vertrauen im Rahmen einer Daten-Allianz zwischen verschiedenen Teilnehmern zu sichern. Datenhoheit ist dabei die Entscheidungsfreiheit, wann welche Daten gehandelt, ausgetauscht oder genutzt werden können bzw. sollen. Die Datenintegrität hingegen stellt sicher, dass transferierte Daten nicht geändert werden können (vgl. Abbildung 8).


 Abbildung 8: Vertrauen und Datenhoheit in einer digitalisierten Supply Chain. Bild: © WZL & Senseering GmbH



Eine weitere wesentliche Fragestellung in unternehmensinternen Verwertungsstrategien und Kooperationen bzw. Interessengemeinschaften zwischen Unternehmen betrifft die Gestaltung einer Monetarisierung von Fertigungsdaten. Einerseits sollen für unternehmensinterne Entitäten Anreize geschaffen werden, Daten innerhalb des Unternehmens auszutauschen und zu verwerten. Andererseits müssen sowohl datenproduzierende und modellnutzende Unternehmen als auch modellentwickelnde Unternehmen und Plattformbetreiber, welche die Treuhänderfunktion innerhalb von Datenmarktplätzen übernehmen, gleichermaßen an den Mehrwerten des Datenhandels beteiligt werden. Solange die Beteiligung der verschiedenen Teilnehmer an einer datenbasierten Wertschöpfungskette nicht definiert ist, besteht beispielsweise für datenproduzierende Unternehmen kein Anreiz, Daten zu teilen und ein potenzielles Risiko einzugehen.


Herausforderungen und Lösungen

Zusammenfassend werden die folgenden vier Herausforderungen für produzierende Unternehmen identifiziert:

  1. Fehlende Unternehmensstrategie zur Datenakquise
  2. Mangel an KI-Kompetenz und KI-Experten sowie ein großes finanzielles Risiko bei der Pilotierung von KI-Anwendungen durch ein hohes ex ante Investment
  3. Ungewissheit über den potenziellen Mehrwert (Wissen) der Daten sowie fehlende monetäre Bewertungsgrundlage und Monetarisierungsstrategie für Daten
  4. Fehlendes Vertrauen in Plattformen, Dritte oder Projektpartner bezüglich der Datenhoheit und -Integrität


Diese ungelösten Herausforderungen führen in vielen Unternehmen zu Datensilos, in denen Daten lediglich gesammelt und abgelegt werden. Diese Datensilos sind für externe Unternehmen unzugänglich und meist noch nicht in wertschöpfende Prozesse innerhalb des Unternehmens integriert. Solche Datensilos sind zumeist nicht auf Interoperabilität ausgelegt und daher auch ungeeignet zu unternehmensübergreifenden Austausch zu Analysezwecken. Für einen solchen Datenaustausch über einen Datenmarktplatz und die Nutzung des innovativen Potenzials von datengetriebenen Knowledge-Spillover-Effekten sind folgende Lösungen zu erarbeiten:

  1. Entwurf einer dezentralen Infrastruktur, die Daten verschiedener Maschinen und Prozesse innerhalb eines Unternehmens sammelt, zur Verfügung stellt und interoperabel ist
  2. Erarbeitung einer Data Privacy Systematik, die Mitarbeiter, Unternehmensgeheimnisse und Know-how durch das bewusste Entfernen bzw. Auslassen bestimmter kontextbezogener Details, wie beispielsweise der Zeit schützt
  3. Gestaltung eines Datenmarktplatzes, welcher die Datenintegrität sichert, datenbezogene Kauf- und Nutzungsvorgänge auditiert, sowie dezentrale Datenspeicher- und Zugriffskonzepte implementiert, sodass kein Teilnehmer oder Anbieter des Datenmarktplatzes die Gesamtheit aller Daten einsehen kann
  4. Erarbeiten interner und externer Datenmonetarisierungsstrategien, die es Unternehmen ermöglichen, Risiko, Kosten, und Kapazität für potenziell unnütze Daten zu opfern, auszulagern und gleichzeitig am Erfolg zu beteiligen
  5. Ausarbeitung von Preismodellen für die Nutzung externer Datenquellen, sodass Anreize geschaffen werden, an einem Datenmarktplatz teilzunehmen und Daten anzubieten


Die Erarbeitung dieser Lösungen, im Rahmen derer Fertigungsdaten zwischen Unternehmen und KI-Dienstleistern sicher und mit Benefit für alle beteiligten Parteien ausgetauscht werden können, erfordert die Nutzung sicherer und dezentraler Architekturen.


4.3 Architektur eines Datenmarktplatzes

Ein Datenmarktplatz zum Handel und Tausch von Daten ist durch eine digitale Plattform charakterisiert, die den Handel von Rohdaten, verarbeiteten Daten, auf Daten basierender Modelle, und datenzentrierte Dienstleistungen (beispielsweise Visualisierungen) ermöglicht. Die Funktion des Treuhänders kann dabei als Intermediär zwischen den einzelnen Teilnehmern im Netzwerk beschrieben. Die Funktion als Intermediär zwischen produzierenden Unternehmen und KI-Experten bzw. Dienstleistern für Datenprodukte ist besonders hervorzuheben, vgl. Abbildung 9.


 Abbildung 9: Funktion eines Datenmarktplatzes als Intermediär zwischen Netzwerkteilnehmern. Bild: © WZL & Senseering GmbH



Neben der Funktion als Treuhänder und der Bereitstellung der Infrastruktur muss dieser Intermediär Funktionen zur Bestimmung der Datenqualität, Herkunft, und des Grades der Veredelung bestimmen. Überdies muss er die Bereitstellung einer Vielzahl von Schnittstellen zur Integration unterschiedlicher Datenquellen innerhalb des Datenmarktplatzes garantieren. Unternehmen, die sich für eine Teilnahme an einem Datenmarktplatz interessieren, stellt sich die zentrale Frage nach der Datenhoheit gehandelter Daten. Klassische zentralistische Modelle, die von einer einzigen Entität verwaltet werden, stoßen auf Ablehnung. Sobald Daten angeboten werden, müssen diese das Unternehmensnetzwerk verlassen und dem Plattformanbieter zur Verfügung gestellt werden. Damit besteht potenziell die Möglichkeit, dass der Plattformanbieter Zugriff auf die Daten hat und diese zu eigenen Analysezwecke nutzen kann, ohne die Zustimmung des Datenanbieters. Ähnliche Phänomene sind in der Internetindustrie beispielsweise bei Facebook und Google bekannt, wo personenbezogene Daten nicht nur zentral gespeichert, sondern auch oft ohne das Wissen oder Einverständnis der Nutzer analysiert und weiterverkauft wurden. Einen Lösungsansatz für diese Problematik eines zentralistischen Ansatzes der Datenverwaltung bietet die Kombination von dezentralen Edge-basierten Systemen zur Datenspeicherung und Distributed-Ledger-basierten Systemen zur dezentralen Datenverwaltung.


4.3.1 Speicherung der Daten (Edge-basierte Systeme)

Edge-basierte Datenspeicherungs- und Verwaltungsansätze sind unabdingbar, um akquirierte Daten lokal im Unternehmensnetzwerk vorzuhalten. Sensible Daten verlassen somit erst dann das interne Unternehmensnetz, wenn das Unternehmen explizit zustimmt. Die Garantie für eine Datensouveränität liefert demnach die Dezentralität des Speichersystems. Erst bei einem erfolgreichen Handel gehen die Daten an den Käufer über und verlassen das Netzwerk des Datenerzeugers. Der Datenmarktplatz verfügt lediglich über Datenbeschreibungen (Metadaten) und hat zu keiner Zeit Zugriff auf Rohdaten. Demnach werden nur zuvor festgelegte Metainformationen zur Beschreibung des Datensatzes zentral in einer Cloudarchitektur gespeichert, um Teilnehmern der Plattform die Suche nach geeigneten Datensätzen zu ermöglichen. Das lokale Speichern der Informationen ermöglicht zum einen den Unternehmen eigenständig für die Sicherheit der Daten zu sorgen und als auch eine Verringerung der Netzwerklast, da nur Daten über Netzwerkgrenzen ausgetauscht werden, die explizit angefragt werden. Die Bereitstellung, Wartung und Weiterentwicklung des Edge-basierten Speichersystems übernimmt der Plattformanbieter.


4.3.2 Verwaltungshoheit (Distributed Ledger Technologie)

Edge-basiert Daten dezentral zu speichern wird in zahlreichen Bereichen bereits produktiv eingesetzt, jedoch werden die meisten zur Verfügung stehenden Lösungen zentral von einer Entität verwaltet. Diese traditionellen Lösungen erlauben es nicht, die Verantwortung für Speicher- und Zugriffsressourcen auf jeden Netzwerkteilnehmer zu verteilen und sind stattdessen von einer Entität abhängig. Die Klasse der Distributed Ledger Technologien (DLT, wie z. B. Blockchain) hingegen ermöglicht als geographisch verteilte und praktisch fälschungssichere Datenbank das unternehmensübergreifende Handeln von Daten als Assets zwischen allen Marktakteuren (produzierende Unternehmen, Lieferanten und Data Scientist) transparent, manipulationssicher und nachvollziehbar zu gestalten.

Im Rahmen einer Monetarisierung von Fertigungsdaten kann die DLT wie folgt eingesetzt werden. Prozess-/Produktdaten werden verschlüsselt inkl. Zeitstempel und Empfängeradresse in einen Datenmarktplatz, der auf dem Distributed Ledger aufsetzt, transferiert und können gegen Bezahlung (z. B. Pay-per-Use oder Subskriptionsmodelle) gekauft werden. Das Vertrauen in die gehandelten Daten wird über das lückenlose, rückverfolgbare und unveränderliche Speichern der Daten/Transaktionen inklusive Zeit- und Ortsstempel erzeugt. Weiterhin trägt der Konsensmechanismus des DLT zur Vertrauensbildung zu, da dieser eine Einigkeit über eine Transaktion im Netzwerk erfordert und damit forciert, dass Aktionen innerhalb eines DLT basierten Netzwerks nicht durch eine Entität durchgeführt werden können, da Transaktionen und Aktionen im Netzwerk abgestimmt und transparent gespeichert werden [23]. Durch die Tatsache, dass Plattformbetreiber nicht alleine den ausgewählten Distributed Ledger verwaltet und hosted, kann auch der Betreiber der Plattform selbst nicht unbemerkt auf die Daten der Teilnehmer zugreifen (vgl. Abbildung 10). Würde er es doch tun, würde durch die Transparenz des Datenmarktplatzes für die Daten-Allianz der Vorgang bemerkt werden. Der Plattformbetreiber würde somit die Attraktivität seines Datenmarktplatzes deutlich reduzieren und damit gegen seine eigenen Interessen handeln.


 Abbildung 10: Sicherer Datenaustausch durch DLT im Rahmen einer Daten-Allianz. Bild: © WZL & Senseering GmbH



Bei der Auswahl der zugrundeliegenden DLT sind deren individuelle Eigenschaften zu berücksichtigen. Die Eigenheiten des Anwendungsfalls sollten dabei die Auswahl der Technologie bestimmen. Ist zum Beispiel eine hohe Skalierbarkeit und Transaktionsgeschwindigkeit vom Anwendungsfall gefordert, bieten sich DLT aus der Kategorie der Directed Acyclic Graphs (DAG) im Vergleich zur klassischen Distributed Ledger Technologie Blockchain an.


4.4 Von der Datenmonetarisierung zur Datenökonomie

Digitale Ökosystem sind verteilte, anpassungsfähige, und offene sozio-technische Systeme, in welchen Eigenschaften der Selbstorganisation, Skalierbarkeit und Nachhaltigkeit sich an natürlichen Ökosystemen orientiert. Insbesondere spielen in diesem Zusammenhang Effekte des Wettbewerbs und Zusammenarbeit verschiedener Akteure innerhalb des Ökosystems eine zentrale Rolle [24].


4.4.1 Akteure

Die einzelnen relevanten Bausteine für eine Monetarisierung von Fertigungsdaten (siehe Kapitel 4.1) müssen nicht von ein und derselben Entität durchgeführt werden. Sie können durch unternehmensübergreifende Wertschöpfung auch von Partnern mit speziellem Know-How übernommen werden. Sobald Daten als Ressource gekauft, veredelt, und weiterverkauft werden können, ergibt sich ein Netzwerk von Entitäten, welche automatisiert Daten auswerten und in monetäre Mehrwerte für andere Unternehmen übersetzen und somit neue Wertschöpfungsströme für sich und andere erschließen.

Ein Datenproduzent sammelt die durch IoT/IIoT Devices akquirierten Daten innerhalb seines Unternehmens und übernimmt selbst nur minimale Schritte zur Vorverarbeitung der Daten. Die Rohdaten werden anschließend mit dem vom Datenproduzenten vorgesehenen Kontext verbunden und gegebenenfalls in syntaxbasierte Modelle eingebettet. Anschließend werden kleinere und unkritische Ausschnitte (beispielhafte und ggf. synthetische Datensätze) frei im Datenmarktplatz zur Verfügung gestellt, um potenziellen Käufern Einblicke in die Art des Datensatzes zu geben.

Die Anbieter von Datenservices sichten die zur Verfügung stehenden Daten und können entweder getrieben durch eigene Innovationsideen Daten einkaufen und verknüpfen, oder konkrete Bedarfe bereits identifizierter Kunden lösen. Das vorliegende Geschäftsmodell beschreibt den Verkauf von datenbasierten Dienstleistungen, die allen anderen Teilnehmern des Netzwerks zur Verfügung stehen.

Veredelte Datensätze und KI-gestützte Modelle können von Anwendern gekauft und in ihre Produktion integriert werden. Dabei sind grundlegende Funktionen des Modells sowie Benchmarks zur allgemeinen Performance im Datenmarktplatz hinterlegt. Für Anwender ist es essentiell, dass die Modelle in Services integriert sind, welche sich leicht in die vorhandene Infrastruktur des Unternehmens integrieren lassen und eine hohe Zuverlässigkeit besitzen.

Das Geschäftsmodell des Plattformbetreibers ist die Bereitstellung der technischen Infrastruktur. Es ist durch die Ausübung der Treuhänderfunktion gekennzeichnet, welche die Sicherheit von Transaktionen und Daten sowie der Datenintegrität garantiert. Treiber des Plattformbetreibers ist die Erweiterung des Netzwerks durch neue Partner, die einer der genannten Teilnehmerkategorien zugeordnet werden können. Es entwickelt sich ein selbständiges, auf der Plattform basierendes Ökosystem.


4.4.2 Rating System

Teilnehmer des Netzwerks müssen incentiviert werden sowohl Daten und Services bereitzustellen, als auch deren Qualität gewährleisten. Andernfalls verkommt ein Datenmarktplatz zu einer Art Datenmüllhalde [25], auf der nicht zwischen guten und schlechten Daten/Datenservices unterschieden werden kann. Die Einführung eines Rating-Systems für die oben beschriebenen Teilnehmerkategorien ermöglicht es, Anbieter nach definierten Qualitätskriterien zu sortieren. Die Ergebnisse des Qualitätsranking bedingt im Umkehrschluss die Attraktivität ihrer Angebote. Die Objektivität des Ranking-Systems ist essentiell, um faire Bedingungen innerhalb der Plattform zu schaffen. Beispielsweise können Modelle zu Bewertung der Datenqualität herangezogen werden. Die FAIR-Datenprinzipien gelten als Leitprinzipien, um Daten auffindbar, zugänglich, interoperabel und wiederverwendbar zu machen [26]. Sie bieten eine Anleitung für das wissenschaftliche Datenmanagement und die Verwaltung von Daten. Die Relevanz der FAIR-Datenprinzipien erstreckt sich über alle Interessensgruppen im aktuellen digitalen Ökosystem [27]. Wichtige Aspekte zur Bewertung der Datenqualität sind vor allem nachvollziehbare Verantwortlichkeiten für Daten, die Zuverlässigkeit, mit welcher eine Datenquelle neue Daten produziert, eine transparente Versionierung der Daten und die korrekte semantische Einbettung von Daten in einen größeren Kontext. Außerdem müssen angebotene Modelle immer die Datensets aufweisen, welche für die Erstellung des Modells genutzt wurde [28]. Durch das Einhalten dieser Prinzipien können nicht nur Daten besser getauscht, gesichtet und weiterverarbeitet werden, sondern auch Modelle eindeutig bestimmten Datensätzen zugeordnet werden, sodass die Transparenz innerhalb des Datenmarktplatzes deutlich erhöht wird.


4.4.3 Neue Wertschöpfung

Aus der Monetarisierung von Fertigungsdaten ergeben sich für Unternehmen neue Optionen Investments und Geschäftsmodelle zu gestalten. Die Investition in für ein Unternehmen wertvolle Daten, der geplante Zukauf von Daten zur Erweiterung der eigenen Modelle, die direkte Bereitstellung von Modellen in einem Pay-per-Use oder KI-As-A-Service Ansatz haben einen Einfluss auf die bisherigen sowie auf die Entwicklung neuer Geschäftsmodelle. In einem voll entwickelten Ökosystem ergeben sich nach einiger Zeit automatisch Mechanismen, welche die Preise für bestimmte Daten nach Qualitätsmaßstäben und Aussagekraft der Daten festlegen.

Ein Ansatz zur Preisfindung zu Beginn eines Ökosystems ist die kostenfreie Bereitstellung unternehmensinterner Datensätzen durch einen Datenproduzenten. Anbieter von Datenservices können dann ein datengetriebenes Modell z. B. zur Vorhersage von Qualitätsmerkmalen erstellen und damit ein konkretes Problem innerhalb (ggf. dritter Unternehmen) lösen. Dieses Modell kann dann gegen Incentives zur Nutzung freigegeben werden.

Um den Datenproduzenten der verwendeten Daten monetär zu entlohnen kann dieser prozentual am Mehrwert des Modells beteiligt werden. Bringt das entwickelte Modell operative Vorteile für den Datenproduzenten selbst, kann dieser das Modell (ggf. zu vergünstigten Konditionen) selbst kaufen oder nutzen (vgl. Abbildung 11).

 



Abbildung 11: Daten- und Informationsfluss in einer Daten-Allianz. Bild: © WZL & Senseering GmbH



Ein solches Modell würde es einerseits datenproduzierenden Unternehmen erlauben, Mehrwert aus ihren eigenen Daten zu generieren ohne ein hohes ex ante Investitionsrisiko in KI-Know-How. Andererseits entsteht eine Situation, in welcher Anbietern von Datenservices eine Vielzahl von Datensätzen zur Verfügung steht um eine innovative Kombination verschiedener Datensätze umzusetzen und auf dieser Basis neue Datenservices zu entwickeln. Gelingt es hingegen nicht produktreife Modelle auf der Basis der angebotenen Daten zu erarbeiten, entstehen keine Kosten für die Nutzung der Daten. Andererseits profitieren Datenproduzenten direkt, wenn ihre Daten für die Modellbildung eines produktreifen Modells beigetragen haben. Die Menge an Unternehmen die bereit ist Ihre Daten abzugeben und “frei” verfügbar zu machen ist hier ein kritischer Faktor für die Entstehung datenbasierter Innovationen innerhalb des Ökosystems [29].

Zusammenfassung: Die vier Haupthemmnisse einer Monetarisierung von Fertigungsdaten sind i) fehlende Unternehmensstrategien zur Datenakquise, ii) die mangelnde Verfügbarkeit von KI-Know-How, iii) fehlende dezentrale Plattformen, die einen automatisierten und spezifischen Austausch von Daten erlauben, und iv) die Unklarheit über den Wert von Daten und der Verlust an Know-How ohne adäquate monetäre Entlohnung durch das Teilen von Daten. Die diskutierten Lösungsvorschläge liefern erste Ansätze, um diesen Herausforderungen zu begegnen. Kern der Lösungen ist zum einen die dezentrale Speicherung und Verwaltung von Daten, sodass keine zentrale Entität die Hoheit über die Daten oder das Netzwerk besitzt. Zum anderen können durch Beteiligungsmodelle die ex ante Investitionshürden im Bereich der Datenanalyse negiert werden. Damit werden Unternehmen Anreize zur Beteiligung an einem Ökosystem zur Datenmonetarisierung gesetzt und die Nutzung datengetriebener Knowledge-Spillover-Effekte ermöglicht.


. . . 


5. 1 Szenarien für die Fertigungstechnik

Die abstrakten Konzepte einer Datenmonetarisierung lassen sich auf konkrete Szenarien reduzieren, welche die Mehrwerte der präsentierten Lösungen herausstellen. Im Folgenden werden drei Szenarien dargestellt, welche drei grundlegende Mechanismen der Datenmonetarisierung anschaulich beschreiben. Hierbei beschränken diese Szenarien sich auf die Beziehung zwischen Datenproduzenten. Die Szenarien wurden in einem gemeinsamen Dialog mit Experten aus Wirtschaft und Wissenschaft der Bereiche Produktion, IT (Software und Hardware), und KI erarbeitet und diskutiert.


5.1 Verkaufen von Sekundärdaten: Produktbenchmark

Unternehmensprofile: Unternehmen A ist ein Hersteller von sicherheitskritischen Bauteilen mittels Maschinenpressen. Unternehmen B ist ein Zulieferer von Hilfs- und Betriebsstoffen zur Sicherstellung der reibungslosen Fertigung von Millionen von Bauteilen aus Metall.

Problembeschreibung: Obwohl Unternehmen A Millionen von Bauteilen mithilfe eines stabilen Prozesses herstellt, gleicht kein Bauteil dem Anderen und es kommt in wiederkehrenden Mustern zu Ausschuss mehrerer hundert Teile.

Ursache: Unternehmen A produziert 24 Stunden am Tag 365 Tage im Jahr. Aufgrund von saisonalen und täglichen Schwankungen der Umgebungsparameter, wie z. B. Hallentemperatur, Luftfeuchtigkeit usw. verändern sich in kleinen Maßen die Eigenschaften des Schmierstoffes und des Prozesses, so dass in ungünstigen Szenarien Toleranzen verletzt werden und es zu Ausschuss kommt. Aufgrund der mehrfach höheren Werkzeughärte gegenüber der Werkstoffhärte kann Werkzeugverschleiß ausgeschlossen werden.

Lösungsansatz: Eine etablierte Größe zur Bewertung der Wirksamkeit von Schmierstoffen ist die resultierende Prozesskraft. Gleichzeitig sind die Prozesskraft und die Hallenumgebungsinformationen aber kein geschäftsgefährdendes Datum. Unternehmen A könnte demnach dieses Datenpaket bestehend aus Umgebungsdaten und Prozesskräfte von Ausschussteilen an Unternehmen B verkaufen. Unternehmen B wäre nun in der Lage mit diesen Daten die Produktionsbedingungen für seine Domäne näherungsweise zu reproduzieren und hiermit sein Schmierstoffprodukt zu optimieren. Unternehmen B ist bereit das Datenpaket zu kaufen, da es sich davon verspricht, durch einen verbesserten Schmierstoff die Absatzmenge an Unternehmen A erhöhen und die Kundenbindung festigen zu können. Unternehmen A ist an einem verbesserten Schmierstoffprodukt interessiert, da es dadurch interne Monetarisierungsmehrwerte (Reduktion von Ausschuss) nutzen kann.

Erwarteter Monetarisierungsmehrwert: Primärer Mehrwert für Unternehmen A ist es, durch den Verkauf von Maschinendaten neue Einkommensströme zu erschließen. Die weiteren Monetarisierungseffekte für Unternehmen A und B sind mit Unsicherheiten und einem FuE-Risiko verknüpft und werden daher nicht betrachtet.


“Die Bewertung des Verkaufs von Daten an Dritte ist aktuell schwer monetär zu fassen. Es wird erwartet, dass basierend auf den Daten Dienstleistungen abgeleitet werden, welche betriebsseitig mindestens zu einer Kostenersparnis von 15 % führen.” — GF Metallverarbeiter


5.2 Kaufen von Daten Dritter: Individualisierung des Werkstoffs

Unternehmensprofile: Unternehmen A ist erneut der Hersteller von sicherheitskritischen Bauteilen. Unternehmen B ist diesmal ein Zulieferer von Werkstückwerkstoff aus Metall.

Problembeschreibung: Obwohl Unternehmen A Millionen von Bauteilen mithilfe eines stabilen Prozesses herstellt, gleicht kein Bauteil dem Anderen und es kommt in wiederkehrenden Mustern zu Ausschuss mehrerer hundert Bauteile. Aufgrund eines neuen verbesserten Schmierstoffs kann der Einfluss von Betriebs- und Hilfsstoffen vernachlässigt werden.

Ursache: Unternehmen A produziert weiterhin 24 Stunden am Tag 365 Tage im Jahr. Messungen an Werkstückwerkstoffproben haben ergeben, dass Werkstoffdicke und -festigkeiten von Charge zu Charge und sogar entlang einer Charge stark schwanken. Aufgrund des hochkomplexen Stahlherstellungsprozesses ist es aus natürlichen Gründen nicht möglich, eine bessere Werkstoffgüte zu produzieren. Weil Unternehmen A die Werkstoffdicke und -festigkeit nicht kennt, kann es die Maschinenparameter nicht darauf abstimmen und fährt mit einem empirischen Maschinensetting, was von Charge zu Charge nicht die gewünschten Effekte hat.

Lösungsansatz: Aufgrund des spezifischen Prozesses ist kein Messen der Werkstoffdicke und -festigkeit im Prozess möglich. Das will Unternehmen A auch gar nicht, da es kein Experte für Materialcharakteristik ist, sondern Hersteller von Millionen von Bauteilen aus Metall. Unternehmen B hingegen ist ein Stahlhersteller und Zulieferer von Unternehmen A. Unternehmen B hat die notwendige Infrastruktur und das Know-How die Werkstoffdicke und –festigkeit zu messen, zu interpretieren und diesen Datensatz an Unternehmen A zu verkaufen. Unternehmen B ist bereit diese Anstrengung auf sich zu nehmen, weil es Gefahr sieht, dass Unternehmen A sonst zu einem anderen Unternehmen wechselt. Unternehmen A kann nun für jede Charge und für jede zu starke Schwankung ausgewählte Maschinenparameter anpassen, so dass die Werkstoffschwankungen im Prozess kompensiert werden können.

Erwarteter Monetarisierungsmehrwert: Primärer Mehrwert für Unternehmen A ist es, dass durch Kaufen von Daten Dritter die eigenen Prozesse der Art verbessert werden können, dass es zu einer Reduktion des Ausschusses kommt und somit zu gesteigerten Produktionsprofiten. Der Mehrwert von Unternehmen B wurde in Use Case 1 behandelt und die weiteren Mehrwerte für beide sind mit Unsicherheiten verknüpft, die nicht weiter betrachtet werden sollen.


“Der Einkauf von Daten Dritter befähigt zu einer Reduktion von Verschwendungszeiten um ca. 15 % und bietet zusätzlich das Potenzial Lagerflächen durch Produktivflächen zu substituieren. Dies bewirkt zusätzliche Erlöse und ermöglicht Umsatzsteigungen von mindestens 23 %.” — Produktionsleiter Metallverarbeiter

“Mittels Einkauf von Daten entfällt die Etablierung von Expertenwissen innerhalb des Unternehmens und erhöht zudem die Effizienz der Prozessbeteiligten. Durch diese Optimierung von Human Resources erhöht sich die Leistungsfähigkeit um 30 %.” — GF Metallverarbeiter


5.3 Innovieren: Datenbasierte Service-Unterstützung

Unternehmensprofile: Unternehmen C ist der Hersteller von Maschinenpressen, mit denen unter anderem Unternehmen A sicherheitskritischen Bauteile hergestellt hat. Unternehmen B ist diesmal ein weiterer Hersteller von anderen sicherheitskritischen Bauteilen und hat heute die Maschinenpresse von Unternehmen C geliefert bekommen.

Problembeschreibung: Unternehmen C hat bereits hunderte von Maschinenpressen weltweit installiert. Aufgrund der Größe und Komplexität der Maschinenpressen dauert eine Installation und Inbetriebnahme mehrere Tage. Selbst nach der Installation kommt es zu Problemen und zu Verzögerungen. Für Unternehmen C entstehen hierdurch deutlich höhere Kosten für das Personal auf Montage und für Unternehmen B entstehen Verluste aus entgangenen Profiten infolge des Stillstandes.

Ursache: Mitarbeitende auf Montage sind meist auf sich alleine gestellt. Die Örtlichkeiten sind ihnen in der Regel nicht vollumfänglich bekannt und so müssen sie häufig spontane Entscheidungen fällen, ohne eine ausreichende Informationsbasis zu haben und ohne die Folgen abschätzen zu können.

Lösungsansatz: Digitale Assistenzsysteme sind datengestützte Systeme, welche mittels Virtual, Augmented oder Mixed Reality unterstützende Informationen bereitstellen. Diese unterstützenden Informationen reduzieren das Risiko Fehlentscheidungen zu treffen und können hierdurch die Implementierungszeit vor Ort reduzieren. Um ein solches System aufsetzen zu können ist Unternehmen C darauf angewiesen, Daten über die Implementierungsvorgänge zu protokollieren und zu analysieren. Unternehmen A und B sind hierzu bereit, weil die erstens einmalig monetär vergütet werden, zweitens nur anonymisierte Daten bereitstellen müssen und drittens zukünftig selbst davon profitieren, wenn sie eine neue Maschine erwerben wollen.

Erwartete Datenmonetarisierungsmehrwerte: Der primäre Mehrwert für Unternehmen C ist die Reduktion an notwendigen Montagetagen sowie ein in der Qualität deutlich gestiegener Kundenservice. Beides sind gegenüber den Wettbewerbern deutliche Marktvorteile. Sonstige Mehrwerte sollen hier nicht weiter betrachtet werden.


“Externer technischer Service und Instandhaltung sind wesentliche Bestandteile einer erfolgreichen Produktion. Mittels der Analyse von Daten Dritter und deren Projektion auf die eigene Organisations- und Infrastruktur ermöglich eine neutrale und offene Systembewertung. Es wird kalkuliert, dass derartige Ansätze zu Kostenersparnisse in Höhe von mindestens 350.000 €/a führen werden.” — Leiter Instandhaltung Metallverarbeiter

“Der Ansatz befähigt zur antizipativen Steuerung von innerbetrieblichen Vorgängen und erlaubt eine zuverlässige Planbarkeit von Vorgängen, wodurch unnötige Stillstandszeiten von Produktionsmaschinen erheblich reduziert werden können. Eine erste Abschätzung basierend auf Erfahrungswerten prognostiziert eine jährliche Kostenersparnis von 475.000 €.” — Werksleiter Metallverarbeiter


. . .

 

6. Fazit

Die Monetarisierung von Fertigungsdaten kann für Teilnehmer einer Daten-Allianz durch die Nutzung und den Austausch von (aggregierten) Fertigungsdaten zu datengetriebenen Knowledge-Spillover-Effekten führen. Damit können bestehende Unternehmensprozesse optimiert und Innovationen geschaffen werden. Die Umsetzung einer gezielten Datenmonetarisierungsstrategie verspricht die Erschließung neuer Einkommensströme und die Gewinnung neue Marktanteile durch digitale, innovative, und progressive Geschäftsmodelle. Eine Datenmonetarisierungsstrategie kann wie folgt aussehen.

Zu Beginn der Monetarisierung von Fertigungsdaten sollten datenproduzierende Unternehmen sich mit der eigenen Datenbasis auseinandersetzen, den Kontext der Daten sicherstellen, und die erhobenen Daten bereinigen. Sind alle unvollständigen oder ungenauen Datenpunkte aus einem Datensatz erkannt und korrigiert worden, sind die Daten in einem optimalen Zustand für die interne Monetarisierung. Vertikale Prozessanalysen innerhalb eines Unternehmens ermöglichen es, mit geringem Aufwand neue Erkenntnisse über Produktions- oder Geschäftsprozesse zu gewinnen, Kosten zu reduzieren, Produkte zu optimieren und Risiken zu minimieren.

Aufbauend auf den Erfolgen der internen Datenmonetarisierung und der daraus resultierenden, gesunkenen Hemmschwelle, kann der nächste Schritt erfolgen. Der Datenaustausch mit einem anderen Datenproduzenten und das Bilden sog. Daten-Allianzen. Das Überwinden der Schwelle der Nutzbarkeit bedingt das Hinzuziehen von KI-Modellen. Hierzu müssen die folgenden vier Schritte innerhalb der Daten-Allianzen erarbeitet werden.

  1. Entwurf einer datensammelnden, dezentralen und Edge-basierten Infrastruktur
  2. Klärung von Fragen und Anforderungen im Bereich Data Privacy, Datenintegrität und Datenhoheit
  3. Definition der Monetarisierungsstrategie sowie
  4. Ausarbeitung von Preismodellen und Beteiligungsoptionen


Abschließend ergeben sich fünf Schritte für Unternehmen der fertigenden Industrie, um eine Datenmonetarisierungsstrategie zu definieren und umzusetzen:

  1. Geeignete Datenquellen identifizieren und in ein standort- / unternehmensweites interoperables Datensystem integrieren
  2. Eine Strategie zur Herausgabe der Unternehmensdaten an Dritte erarbeiten, welches beispielweise den Umfang der Daten und vor allem den Kontext, in dem sich die Daten befinden, umfasst
  3. Geeignete Partner für die Bildung von Daten-Allianzen identifizieren, diese Partnerschaften gestalten und stetig erweitern
  4. Innovative Beteiligungsmodelle für den Nutzen ihrer Daten festlegen
  5. Die erarbeiteten Partnerschaften in ein plattformbasiertes Ökosystem in Form eines Datenmarktplatzes integrieren, das durch die Offenheit zum Datenaustausch von Unternehmen aus unterschiedlichen Branchen datenbasierte Innovationen ermöglicht und dadurch Datenproduzenten, Plattformbetreiber und Anbietern von Datenservices wirtschaftlich stärkt.


Für Unternehmen ohne eigenes KI-Know-How ist die Nutzung externer Ressourcen für die Identifikation wirtschaftlicher Potenziale der eigenen Datensätze essentiell, weil damit das Risiko für Fehlinvestitionen nicht durch das Unternehmen getragen, sondern an Anbieter von Datenservices ausgelagert wird. Diese Anbieter können innerhalb eines breiten Ökosystems innovative Datenprodukte entwickeln. Durch einen Verkauf oder alternative Beteiligungsmodellen werden somit auch rein datenproduzierende Unternehmen am wirtschaftlichen Erfolg der entstehenden Datenprodukte beteiligt.


. . .

 

 Literatur

[1] Carlino, G. A. (2001). Knowledge spillovers: cities’ role in the new economy. Business Review Q, 4(1), 17–24.

[2] Glaeser, E. L., Kallal, H. D., Scheinkman, J. A., & Shleifer, A. (1992). Growth in cities. Journal of political economy, 100(6), 1126–1152.

[3] Huber, F. (2012). Do clusters really matter for innovation practices in Information Technology? Questioning the significance of technological knowledge spillovers. Journal of economic geography, 12(1), 107–126.

[4] Castillo, V., Figal-Garone, L., Maffioli, A., Rojo, S., & Stucchi, R. (2016). The effects of knowledge spillovers through labor mobility.

[5] Pennekamp, J., Glebke, R., Henze, M., Meisen, T., Quix, C., Hai, R., … & Epple, A. (2019, May). Towards an Infrastructure Enabling the Internet of Production. In 2019 IEEE International Conference on Industrial Cyber Physical Systems (ICPS) (pp. 31–37). IEEE.

[6] Li, G., Wang, J., Wu, J., & Song, J. (2018). Data processing delay optimization in mobile edge computing. Wireless Communications and Mobile Computing, 2018.

[7] Fedkenhauer, T., Fritzsche-Sterr, Y., Nagel, L., Pauer, A., & Resetko, A. (2017). Datenaustausch als wesentlicher Bestandteil der Digitalisierung. PricewaterhouseCoopers. URL: http://www.industrialdataspace.org/ressource-hub/publikationen. Access: 31.03.2020.

[8] World Economic Forum. (2020). Share to Gain: Unlocking Data Value in Manufacturing. White paper.

[9] Yan, J., Meng, Y., Lu, L., & Li, L. (2017). Industrial big data in an industry 4.0 environment: Challenges, schemes, and applications for predictive maintenance. IEEE Access, 5, 23484–23491.

[10] Pennekamp, J., Henze, M., Schmidt, S., Niemietz, P., Fey, M., Trauth, D., … & Wehrle, K. (2019, November). Dataflow Challenges in an Internet of Production: A Security & Privacy Perspective. In Proceedings of the ACM Workshop on Cyber-Physical Systems Security & Privacy (pp. 27–38).

[11] Zhong, R. Y., Xu, C., Chen, C., & Huang, G. Q. (2017). Big data analytics for physical internet-based intelligent manufacturing shop floors. International journal of production research, 55(9), 2610–2621.

[12] Chen, S., Shi, R., Ren, Z., Yan, J., Shi, Y., & Zhang, J. (2017, November). A blockchain-based supply chain quality management framework. In 2017 IEEE 14th International Conference on e-Business Engineering (ICEBE) (pp. 172–176). IEEE.

[13] Wu, S. (2013). A review on coarse warranty data and analysis. Reliability Engineering & System Safety, 114, 1–11.

[14] Cui, Z., Chen, W., & Chen, Y. (2016). Multi-scale convolutional neural networks for time series classification. arXiv preprint arXiv:1603.06995.

[15] Liu, C., Li, Y., Zhou, G., & Shen, W. (2018). A sensor fusion and support vector machine based approach for recognition of complex machining conditions. Journal of Intelligent Manufacturing, 29(8), 1739–1752.

[16] Kłosowski, G., Gola, A., & Świć, A. (2016). Application of fuzzy logic in assigning workers to production tasks. In Distributed Computing and Artificial Intelligence, 13th International Conference (pp. 505–513). Springer, Cham.

[17] Mahendrawathi, E. R., Arsad, N., Astuti, H. M., Kusumawardani, R. P., & Utami, R. A. (2018). Analysis of production planning in a global manufacturing company with process mining. Journal of Enterprise Information Management.

[18] Jüttner, U., Windler, K., Schäfer, A., & Zimmermann, A. (2017). Design von Smart Services–Eine explorative Studie im Business-to-Business-Sektor. In Dienstleistungen 4.0 (pp. 335–361). Springer Gabler, Wiesbaden.

[19] Meisel L., Spiekermann M. (2019). Datenmarktplätze — Plattformen für Datenaustausch und Datenmonetarisierung in der Data Economy. Fraunhofer-Institut für Software- und Systemtechnik ISST.

[20] Schürmann, H. (2017). Datenanalysten sind rar. https://www.vdi-nachrichten.com/karriere/datenanalysten-sind-rar/. Access: 31.03.2020.

[21] Peters, R. (2010). Internet-Ökonomie. Springer-Verlag.

[22] KPMG, Bitkom. (2015). Mit Daten Werte schaffen. Report 2015. https://www.bitkom.org/sites/default/files/file/import/KPMG-Bitkom-Research-Studie-MDWS-final-2.pdf. Access: 31.03.2020.

[23] Morkunas, V. J., Paschen, J., & Boon, E. (2019). How blockchain technologies impact your business model. Business Horizons, 62(3), 295–306.

[24] Briscoe, G., & De Wilde, P. (2006, December). Digital ecosystems: evolving service-orientated architectures. In Proceedings of the 1st international conference on Bio inspired models of network, information and computing systems (pp. 17-es).

[25] Freiknecht, J. (2018). Big Data in der Praxis: Beispiellösungen mit Hadoop und NoSQL. Daten speichern, aufbereiten, visualisieren. Carl Hanser Verlag GmbH Co KG.

[26] Freiknecht, J. (2014). Big Data in der Praxis: Beispiellösungen mit Hadoop und NoSQL. Daten speichern, aufbereiten, visualisieren. Carl Hanser Verlag GmbH Co KG.

[27] Mons, B., Neylon, C., Velterop, J., Dumontier, M., da Silva Santos, L. O. B., & Wilkinson, M. D. (2017). Cloudy, increasingly FAIR; revisiting the FAIR Data guiding principles for the European Open Science Cloud. Information Services & Use, 37(1), 49–56.

[28] Gleim, L., Pennekamp, J., Liebenberg, M., Buchsbaum, M., Niemietz, P., Knape, S., … & Brecher, C. (2020). FactDAG: Formalizing Data Interoperability in an Internet of Production. IEEE Internet of Things Journal.

[29] Zillner, S., Becker, T., Munné, R., Hussain, K., Rusitschka, S., Lippell, H., … & Ojo, A. (2016). Big data-driven innovation in industrial sectors. In New Horizons for a Data-Driven Economy (pp. 169–178). Springer, Cham.


. . .

 

Sie haben Fragen? Kontaktieren Sie uns!


senseering Logo | © senseeringsenseering GmbH


Die senseering GmbH ist ein mit dem RWTH Aachen University Spin-Off-Award ausgezeichnetes und im September 2018 gegründetes Unternehmen. Kernkompetenz der senseering GmbH ist die Entwicklung und Implementierung von Systemen zur Digitalisierung und Vernetzung von Industrie- und Produktionsanlagen. Gleichermaßen berät die senseering GmbH bei strategischen Unternehmensfragestellungen, insbesondere bei der digitalen Transformation, bei Distributed-Leger-Technologies, bei Edge vs. Cloud-Computing-Architekturen zur KI-basierten Echtzeitregelung industrieller Prozesse, bei der Digital Business Model Innovation und bei der Einführung digitaler Geschäftsprozesse wie Home Office, Azure oder Microsoft365. Senseering gehört zu den Gewinnern des ersten und größten KI-Innovationswettbewerbs des BMWi mit dem Projekt www.spaicer.de.

Daniel Trauth (CEO) | www.senseering.de | E-Mail: mail@senseering.de


Footer. Bild: © senseering | Semjon Becker


WRITTEN BY

Daniel Trauth Co-Fdr. of senseering GmbH. Working w/ @rwth_wzl of @RWTH Aachen Univ twds the #InternetOfProduction. http://www.danieltrauth.com/

Bei senseering entwickeln und implementieren wir intelligente Systeme für die Digitalisierung und Vernetzung von Industrie- und Produktionsanlagen nach Kundenwunsch. Bei uns trifft solider Maschinenbau auf digitale Zukunftskonzepte und souveräne Umsetzung.