Seit einiger Zeit wird der Einsatz von künstlichen neuronalen Netzen (KNNs) und maschinellen Lernen in Unternehmen und Organisationen effektiv vorangetrieben, wodurch sich völlig neue Möglichkeiten bei der Analyse und Auswertung von Daten ergeben. Zu den bekanntesten Anwendungsgebieten zählen die Objekt- und Spracherkennung sowie Eingabehilfen, Suchmaschinen und autonomes Fahren. Ein sehr großes Potential bietet zudem die Analyse von Sensordaten, basierend auf einer regelmäßigen Erfassung des Zustandes von Maschinen und Anlagen. 

Um das Risiko eines Maschinenausfalls und die damit verbundenen Kosten zu verringern, müssen Fehler und Verschleiß frühzeitig erkannt werden. Die Überwachung von Maschinen mit Sensoren und vernetzten Systemen ist daher eine wesentliche Voraussetzung für proaktive Wartungen. Dabei entstehen oft große Datenmengen, welche wiederum große Rechenkapazitäten und IT-Infrastrukturen erfordern. Für viele Unternehmen sind die damit verbundenen Kosten und fachlichen Kompetenzen eine große Herausforderung, daher können dezentrale intelligente Systeme zur Zustandsüberwachung eine kostengünstige und effiziente Alternative darstellen.

Üblicherweise werden neuronale Netze auf Servern und in Cloud-Umgebungen installiert, welche über spezielle Hardwarebeschleuniger verfügen. Da die Rechenleistung von eingebetteten Systemen jedoch kontinuierlich zunimmt und die Kosten dafür gleichzeitig sinken, wird künstliche Intelligenz neuerdings auch auf IoT-Geräten (Internet of Things) und Sensorplattformen implementiert. Diese eingebetteten KI-Systeme ermöglichen z.B. die Identifizierung von Abweichungen gespeicherter Maschinenzustände und verfügen über ausreichend hohe Kapazitäten und modernste Software, um maschinelles Lernen und neuronale Netze zu ermöglichen. Dabei spielt die Abstimmung bei der Datenverarbeitung mit Speicherzugriff und Datenverfügbarkeit eine entscheidende Rolle, um hohe Leistungen zu erzielen.

Durch Parallelisierung bei der Datenverarbeitung, eine hohe Kernfrequenz sowie die Optimierung von Speicherzugriff und Befehlssatz kann die Inferenzzeit zur Berechnung von Vorhersagen maßgeblich verringert werden. Neue Hardware-Beschleuniger für KI reduzieren zudem die Leistungsaufnahme und passen den Stromverbrauch den jeweiligen Anforderungen an. Dies ist ein wichtiges Kriterium für die Realisierung von KI-Berechnungen im Endpunkt, vor allem, wenn sehr viele Systeme eingesetzt werden sollen.

Spezielle Software-Bibliotheken (Inferenzmaschinen) mit optimierten Kerneln und Funktionen für die jeweilige Zielhardware erlauben sogar den Einsatz vorgeschulter Deep-Learning-Modelle in einem leistungsfähigen Mikrocontroller und berücksichtigen dabei dessen begrenzte Ressourcen. Auch das Trainieren von künstlichen neuronalen Netzen auf einem Mikrocontroller wird damit, und durch die Reduzierung von Quellcode, ermöglicht. Somit ist eine Dezentralisierung der Rechenleistung mit kleinen lernfähigen Systemen möglich, welche die Daten vorverarbeiten und Aufgaben untereinander aufteilen. Die Ergebnisse können dann einem übergeordneten System zur Verfügung gestellt werden, wodurch wiederum die Datenmenge reduziert wird.

 

Fazit

Die Einsatzmöglichkeiten von intelligenten eingebetteten Systemen sind vielfältig und bieten große Potentiale im Bereich der direkten Auswertung von Sensordaten im Endpunkt. Zudem ermöglicht die Klassifizierung von Mustern die Entwicklung von virtuellen Sensoren, indem eine Abhängigkeit von Messgrößen zu einer neuen Zielgröße simuliert wird. Diese Systeme sind in der Lage selbst zu lernen und benötigen keine Verbindung zu leistungsfähigen Computern.