14.09.2015 – Kategorie: Technik

Wie Engineering und IT am optimalen Nutzen von Testdaten arbeiten

de_2015_05_800_ni_diadem_2014

Das Engineering vieler Firmen erzeugt unglaubliche Mengen an unstrukturierten Testdaten, die bei der Forderung nach einer umfassenden Big-Data-Strategie die IT vor scheinbar unlösbare Probleme stellt. Wie man die Kluft zwischen der IT und dem Engineering überwindet. von Stephanie Amrite

Wettbewerb, Markt und Innovation verlangen von Unternehmen, dass sie die Personen, Prozesse und Technologien evaluieren, die für die Entwicklung von Produkten und Dienstleistungen eingesetzt werden. Dahinter steckt die Problematik von Big Analog Data, zu der das Erfassen und Analysieren der gewonnenen Rohdaten gehört.
Im Gegensatz zur Datenflut, die gewöhnlich mit klassischen IT-Datenquellen assoziiert wird, etwa Social-Media- und unternehmensweite Anwendungen, stellen Lösungen zu Big Analog Data eine größtenteils ungenutzte Quelle von Informationen und Erkenntnissen dar, mit denen Firmen, die Mess- und Prüftechnik in hohem Maße einsetzen, in datenzentrierten Anwendungen Wettbewerbsvorteile identifizieren und schaffen können.
Dieses Unterfangen ist nicht zu unterschätzen, wenn man bedenkt, dass die International Data Corporation davon ausgeht, dass nur fünf Prozent der heute erfassten Daten auch analysiert werden.
Im Rahmen dieser Anstrengung, Lösungen zu Big Analog Data – besonders für Testdaten, wie sie typischerweise bei automatisierten Prüfanwendungen anfallen, – besser zu erfassen, zu speichern und zu nutzen, müssen Ingenieure zunächst die Rolle der IT erkennen, die diese bei der Verwaltung der Daten spielt. Derzeit bewirkt allein die schiere Datenmenge, die in technischen Abteilungen erzeugt wird, dass sich eine Kluft zwischen IT und En­gineering auftut. Wenn diese Gruppen nicht gemeinsam an der Entwicklung von Werkzeugen und Methoden zur besseren Nutzung dieser Daten arbeiten, wird sich diese Kluft weiter vertiefen.
Der erste Schritt hin zu einem Zusammenwirken sind Kenntnisse darüber, wie diese Datenfluten, Big Data, klassifiziert werden: strukturiert, unstrukturiert oder teilstrukturiert. Bislang haben sich die meisten Big-Data-Lösungen auf strukturierte Daten konzentriert. Die vom Nutzer definierten strukturierten Daten verkörpern ein bestimmtes Verhältnis zum Nutzer, der zahlreiche Werte (Name, Geburtsdatum, Adresse) als Rohdaten eingibt. Unstrukturierte Daten enthalten keine Metadaten, folgen keinem Schema und richten sich nicht nach anderen zuvor festgelegten Regeln.
Die dritte Kategorie, teilstrukturiert, wird vom dramatischen Anstieg der Menge an erfassten Testdaten beeinflusst. Da immer mehr Prüfsysteme rund um die Uhr für die Erfassung von Testdaten eingesetzt werden, wird deren Volumen schon bald das der von Menschen erzeugten Daten übertreffen. Weil Testdaten so viele Informationen beinhalten, ist es schwierig, jedem einzelnen Byte einen strukturierten Wert zuzuweisen. Das Erstellen von Datenhierarchien sorgt für Struktur und erleichtert das Auswerten der Daten nach ihrer Erfassung. Diese teilstrukturierten Testdaten sind in der Regel mit einem Zeitstempel gekennzeichnet und werden dann über einen festgelegten Zeitraum oder auf ein festgesetztes Stimulus-Antwort-Muster hin analysiert.

Lösungen meist suboptimal

Die meisten Unternehmen implementieren ihre Lösungen für Testdaten suboptimal, da sie nicht damit gerechnet haben, wie wertvoll die Korrelation der aus diesen Stimulus-Antwort-Daten gewonnenen Informationen zum Zeitpunkt der Implementierung sein kann.
Bei den effektivsten Methoden zur Bewältigung dieser Herausforderung werden Testdatenanalysen mit klassischen IT-Werkzeugen kombiniert. Allerdings erfordert diese Architektur einen neuen Ansatz bei der Datenintegration und -verwaltung. Dazu gehören neue Infrastrukturen und Fähigkeiten für das Speichern, Auswerten und Analysieren der aussagekräftigen Daten.  Diese Lösungen müssen so ausgelegt werden, dass neue Datenquellen analysiert und in vorhandene Datenbestände integriert werden können.
Obwohl IT-Abteilungen nicht immer Testdaten von Ingenieuren und Wissenschaftlern in ihre Gesamtzielsetzungen eingebunden haben, erkennen sie jetzt den Wert für das Unternehmen, der darin besteht, dass Analysen und Algorithmen nicht zur Auswertung dieses Datenbergs, sondern auch zur Eröffnung neuer geschäftlicher Möglichkeiten herangezogen werden. In der Phase des Übergangs stellen sich Anwendern folgende Fragen: Werden über die Hälfte der Analysen manuell durchgeführt? Verbringt ein Team über fünf Stunden pro Woche mit der Suche nach Datentrends? Welche Datenmenge wird letztlich analysiert? Liegt sie bei unter 80 Prozent der erfassten Daten? Existiert ein optimierter, abteilungsübergreifender Prozess oder verwenden verschiedene Teams unterschiedliche Werkzeuge?

Bereichsübergreifend denken

Damit der Wandel hin zu einer testdatenzentrierten Organisation erfolgen kann, sollte ein bereichsübergreifendes Team gemeinsam Lösungen prüfen und Kompatibilität sicherstellen. Zum Team sollte ein Vertreter der IT, ein für die Datenerfassung zuständiger Ingenieur oder Techniker, ein Datenexperte sowie eine Führungskraft mit einem guten Blick dafür gehören, wie neue Lösungen in anderen Abteilungen umgesetzt werden können.
Darüber hinaus sollte ein leitender Angestellter ein besonderes Interesse daran haben, welches Ergebnis durch das Einbinden von Testdatenanalysen erzielt wird, sodass sich wichtige Mitglieder des bereichsübergreifenden Teams für Fortschritte verantwortlich fühlen.

Ergebnis nicht ad hoc

Viele Unternehmen machen den Fehler, eine vollständige Lösung zur Datenanalyse innerhalb eines unangemessenen Zeitraums zu erwarten. Werden die Bemühungen unterschätzt, die bei der Abstimmung mehrerer Teams und gleichzeitiger Revision bestehender Arbeitsabläufe notwendig sind, werden die Teams gewöhnlich Lösungen ohne passendes Verständnis für die wahren Bedürfnisse vorschlagen. Daraus ergibt sich eine unbrauchbare Lösung, die von den Endnutzern nicht übernommen wird.
Eine vollständige Analyselösung für Testdaten beinhaltet kleinere, stufenweise Schritte und gewinnt im Verlauf an Dynamik für Endnutzer, IT-Experten, Unternehmensleiter und weitere Mitarbeiter. In ihrem Bereich führende Unternehmen setzen häufig ein internes Pilotprojekt in einer einzelnen Abteilung um, bevor die Anforderungen an die Datenanalyse dokumentiert werden.
Dieses Pilotprojekt beinhaltet das Integrieren eines Datenspeichermechanismus speziell für Testdaten in bestehende IT-Infrastruktur, das Testen mehrerer Analysesoftwarepakete und das Definieren eines durchgängigen Analyseprozesses. Auf diese Weise können wichtige Akteure den Fluss der erfassten Daten verstehen und Engpässe identifizieren. Die IT-Abteilung hat zudem Zeit, die Unterschiede zwischen klassischen Big Data und Testdaten herauszufinden und Strategien zum Einsatz der verschiedenen Werkzeuge für die erfolgreiche Umsetzung von Testdatenlösungen festzulegen.
Das Beseitigen von Engpässen schlägt sich in Gewinn, Qualität und Marktreife nieder und verhindert das Veröffentlichen inadäquater Produkte, da mehr Fehler und Testergebnisse außerhalb der Spezifikation erkannt werden. Diese Vorteile steigern den Gesamtgewinn des Unternehmens.

Spätere Erweiterung

Unternehmen sollten den Gesamtzusammenhang vor Augen haben, wenn sie Pilotprogramme zur Testautomatisierung starten. Lösungen, die für bestimmte Gruppen erstellt wurden, lassen sich oft nicht skalieren, wenn Analyselösungen für Testdaten in anderen Abteilungen eingeführt werden. Unternehmen können ihren Engineering- und Designteams Wochenberichte zukommen lassen, um wichtige Trends zur Vermeidung von Ausfällen zu identifizieren. Das kann als Starthilfe bei einem Umgestaltungsprozess dienen, der alle möglichen Szenarien berücksichtigt.
Indem Unternehmen beim Design einer Lösungsarchitektur einer langfristigen Vision den Vorrang geben, können sie konkrete Ziele für die Erweiterung festlegen und die IT-Abteilung kann entsprechend planen und mehr Server einsetzen, wenn die Lösung in mehreren Abteilungen implementiert wird.

Jetzt investieren, später profitieren

Eine Testdatenlösung kann für ein Unternehmen einen enormen Mehrwert erzeugen, da die Belegschaft produktiver arbeiten kann, Ausgaben lassen sich senken und der Gewinn steigern. Firmen, die den Wechsel zu einer datenzentrierten Organisation vollziehen, werden zu Marktführern mit Zugriff auf bis zu 95 Prozent mehr Daten als ihre Mitbewerber. Dadurch können sie 20 Prozent kosteneffizienter werden. Eine enge Zusammenarbeit zwischen IT und Engineering, durch die die Herausforderungen bewältigt werden, ist bei der Beschaffung und Analyse entscheidend. jbi |

Stephanie Amrite ist Produkt-Managerin DIAdem bei National Instruments in München.


Teilen Sie die Meldung „Wie Engineering und IT am optimalen Nutzen von Testdaten arbeiten“ mit Ihren Kontakten:

Zugehörige Themen:

Messen, Steuern, Regeln

Scroll to Top