Datenmanagement

Was wäre, wenn wir einfach und in großem Umfang messbare Erkenntnisse über die Welt sammeln könnten? Genau das ist das Versprechen jeder vernetzten Lösung. Um jedoch aus den erfassten Informationen echten geschäftlichen Mehrwert zu ziehen und konkrete Maßnahmen ableiten zu können, ist die Gestaltung des Datenmodells von zentraler Bedeutung. Werfen wir einen Blick auf die wichtigsten Fragen, die dabei beantwortet werden müssen.

Die verschiedenen Arten von Daten

Viele Telemetriedaten gehören in der IoT-Welt zur Kategorie der „bekannten“ Metriken. Klassische Sensoren, die in zahlreichen Geräten verbaut sind, können die direkte Umgebung eines vernetzten Geräts überwachen – etwa Wetterbedingungen (Temperatur, Luftdruck, Luftfeuchtigkeit, Windgeschwindigkeit), Position im Raum (Beschleunigungssensor, Gyroskop, GNSS-Koordinaten) oder interne Werte (Batteriestatus, Energieverbrauch, Speicherplatz).

Ist ein Gerät mit Aktoren wie Tasten, Hebeln oder einem Bildschirm ausgestattet, kann es auch Daten über die Interaktionen eines Menschen mit dem Gerät übermitteln. Über rein numerische Werte hinaus können zudem große Datenmengen wie Videostreams von Überwachungskameras übertragen werden.

Bei konfigurierbaren Geräten ist es üblich, ihre Einstellungen mit einem Digital Twin zu verknüpfen. Um die von einem Administrator vorgegebenen Soll-Eigenschaften abzubilden, muss das Gerät zurückmelden, welche Änderungen tatsächlich angewendet wurden („reported properties“). Dieses Datenaufkommen ist in der Regel weniger umfangreich.

Auch für Debugging-Sitzungen möchte ein externer Operator in der Lage sein, Logeinträge oder andere, nicht für Endnutzer bestimmte Daten abzurufen. Hierbei wird erwartet, dass das Gerät korrekt auf ad-hoc-Kommandos reagiert.

Ausgehend von diesen Beobachtungen bestimmen die Größe und Häufigkeit der Datenübertragung die Einschränkungen, die mit der gewählten Konnektivitätstechnologie abgeglichen werden müssen. Bestimmte Sammelmuster sind in Netzwerken mit begrenzter Bandbreite nicht möglich. Das Format der Nutzlast und eventuelle Kompression können diese Einschränkungen teilweise abmildern. So können beispielsweise identische Zeitstempel statt mehrfach einzeln auch nur einmal angegeben und aufgelistet werden.

Auch die Sicherheit des Kommunikationskanals darf nicht vernachlässigt werden. Viele Garantien hängen direkt mit dem eingesetzten Verschlüsselungsschema zusammen – etwa die Vertraulichkeit der Übertragung oder die Authentizität von Sendern und Empfängern.

Zeitmanagement ist ebenfalls zentral.

Die Aktualität der Daten kann für eine Gerätekategorie von entscheidender Bedeutung sein, während sie für andere völlig irrelevant ist. Daher stellt sich die Frage, ob es sinnvoll ist, veraltete Daten vor den neuesten zu senden, wenn keine vollständige Historisierung erforderlich ist. Solche Überlegungen wirken sich direkt auf die Caching-Strategie eines Geräts aus.

Ein Gerät kann zudem in verschiedenen Modi arbeiten und im Laufe seines Lebens zwischen diesen wechseln: schlafend (stumm) noch im Werk, passiv überwachend im regulären Betrieb oder aktiv mit hohem Datenaufkommen in Notfallsituationen.

Betrachtet man die gesamte Geräteflotte, erweitert sich die Priorisierung um eine weitere Dimension. Wenn ein Teil der Geräte für einen bestimmten Zeitraum erhöhte Aufmerksamkeit erfordert, sollte die Plattform in der Lage sein, deren Telemetriedaten vorrangig zu verarbeiten und Engpässe bei der regulären Datenaufnahme währenddessen zu begrenzen.

Die größten Herausforderungen im Datenmanagement

secure maintenance blue

Ingestion-Pipelines

Entlang der Pipeline lassen sich unterschiedliche Strategien zur Kopplung der Microservices entwickeln. Soll der Schwerpunkt auf „Extract, Transform, Load (ETL)“ liegen, bei dem Datenvalidierung und -kalibrierung gleich zu Beginn erfolgen, oder ist „Extract, Load, Transform (ELT)“ geeigneter, bei dem Rohdaten schnell in Data Lakes gesammelt werden?

Zunächst müssen die Daten – je nach auf der Netzwerkschicht gewähltem Protokoll und Format – eventuell dekodiert werden. Anschließend kann die Bereinigung nicht konformer oder korrupter Werte mit einer Normalisierungsphase gekoppelt werden, um die Allgemeingültigkeit zwischen mehreren Gerätegenerationen zu erhöhen und Vorwärts- wie Rückwärtskompatibilität sicherzustellen.
direction blue

Lebenszyklen

Wie lange sollten die Daten im System verbleiben, bevor sie an einen anderen Ort verschoben oder vollständig verworfen werden?

Diese Fragestellung hat Auswirkungen auf Aggregations- und Verdichtungsstrategien (Compaction). Die Time-to-Live-(TTL)-Konzeption und die Geschwindigkeit, mit der unterschiedliche Informationstypen erfasst werden müssen, leiten unsere Entscheidungen über Ebenen von Cold- und Hot-Storage-Lösungen. Ein Cold Storage eignet sich ideal zur Archivierung bereits verarbeiteter Daten, die für den Tagesbetrieb nicht unmittelbar relevant sind. Eine schnelle Datenbank- oder Cache-Schicht ist hingegen die einzige Möglichkeit, Services schnell mit aktuellen Daten zu versorgen. Das wirkt sich auf die Kosten aus.

Beachten Sie, dass in einigen Branchen die Gesetzgebung letztlich den Ausschlag geben kann.

Geschäftswert durch Datenmanagement schaffen

Für passives Monitoring müssen Dashboards mit Tabellen, Histogrammen und Diagrammen sowohl effizient als auch aussagekräftig sein. Wenn die gewählte Visualisierung mehr Fragen als Antworten aufwirft, weil sie nicht zum jeweiligen Datentyp passt, ist das Ziel verfehlt.

Somfy smart building

Frontend-Anwendungen

Um die richtige Intelligenz bereitzustellen, müssen die Anforderungen dieser Frontend-Anwendungen durch Backend-Services unterstützt werden, die den Datenzugriff steuern (über REST-APIs, GraphQL-Endpunkte …). Diese Server wiederum müssen die Werte aus den Speicherebenen abrufen.

Datenbanktyp

Für eine optimale Abfrageeffizienz muss daher der richtige Datenbanktyp gewählt werden, in der Regel spaltenorientiert oder auf Zeitreihen spezialisiert. Partitionierung und Sharding müssen in der Lage sein, sowohl aussagekräftige Metriken auf Flottenebene bereitzustellen als auch den Fokus schnell auf einzelne Geräte einzugrenzen.

Systemwarnungen

Beim aktiven Monitoring ist es entscheidend, nahezu in Echtzeit Rückmeldungen zu erhalten, um auf Systemwarnungen reagieren zu können. Auch hier spielt die Priorisierung eine wichtige Rolle. Das endgültige Auslieferungsmedium (E-Mails, Benachrichtigungen) hängt von der Kritikalität sowie vom Verantwortungsbereich der Administratoren innerhalb der Organisation ab.

SUCCESS STORY

Verwalten Sie die Daten der IoT-Ventile von Velan

Velan benötigte Unterstützung bei der Entwicklung vernetzter IoT-Ventile für den Einsatz in der Kernenergiebranche. Die Ventile sollen den Kunden zuverlässige und aktuelle Telemetriedaten liefern. Damit dies möglich ist, mussten die Daten der internen Ventilsensoren in Echtzeit – sicher und gut zugänglich – in ein maßgeschneidertes Webanwendungs-Dashboard übertragen werden.

Witekio kann Sie unterstützen beim Datenmanagement Ihrer Geräte

Witekio vereinfacht das Datenmanagement von Geräten und ermöglicht Unternehmen, Gerätedaten effizient zu erfassen, zu analysieren und darauf zu reagieren. Von der Telemetrieerfassung bis zur sicheren Datenaufnahme sorgt Witekio dafür, dass Ihre Geräte verwertbare Erkenntnisse liefern – durch die Entwicklung robuster, auf Ihre Anforderungen zugeschnittener Datenmodelle. Unsere Expertise umfasst die Auswahl geeigneter Protokolle, die Optimierung der Datenspeicherung und die Sicherstellung von Echtzeit-Reaktionsfähigkeit. So wird die nahtlose Integration von Telemetrie in Business Intelligence möglich. Mit Witekio verwandeln Sie Rohdaten in messbare Intelligenz, die fundierte Entscheidungen und schnelle Reaktionen unterstützt.

Unsere IoT-Expertise

Device Connectivity

FLEET MANAGEMENT

IOT Security

IoT-Ecosystem-Security-1

Ihr vertrauenswürdiger Partner für Embedded Software, Anwendungen und Konnektivität

flag_line

4 Länder

4 Länder

iso_27001_02-1024x704

ISO 27001 zertifiziert

ISO 27001 zertifiziert

Avnet_logo

Fortune 500

Fortune 500