11. Dez 2020
Im Rahmen des Forschungsprojektes hat die Forschungsgruppe Geriatrie, AG Pflegeforschung der Charité-Universitätsmedizin Berlin, mit dem Entwicklungssystem MicroHub von Interactive Wear Bewegungsdaten aufgenommen, die von Interactive Wear klassifiziert wurden. Die zu erkennenden Bewegungsmuster waren Liegen, Sitzen, Stehen, Gehen, Treppensteigen sowie zwei typische Übungen zur Mobilisierung.
Mit neuronalen Netzen – convolutional neuronal networks mit 3-5 Ebenen, realisiert in Python/PyTorch - wurde eine Trefferrate von 85% bis 93,2% erreicht. Dieselben neuronalen Netze mit Interactive Wear’s Enhanced Features ergaben hingegen Trefferraten von über 99,5%. Da diese Trefferraten auch schon bei einlagigen Netzen erreicht werden können, wird gleichzeitig der Ressourcenbedarf für die Berechnung deutlich reduziert. Ein so erzeugtes Netz kann auch auf einem kleinen und stromsparenden Micro-Controller der Klasse ARM M0+ laufen, und das in Echtzeit mit Bewertungen alle 2-3 Sekunden.
Die Werkzeuge von Interactive Wear beinhalten HW- und SW-Entwicklungssysteme, die für ein breites Spektrum von Body-Sensor-Networks-Anwendungen geeignet sind. Die Entwicklungssysteme und -methoden ermöglichen ein schnelles Prototyping von Kundenanwendungen. Das Spektrum reicht von einfachen Applikationen mit 6- oder 9-Achsen IMUs (inertial measurement units) bis hin zu verteilten Systemen mit mehreren IMUs und analogen Sensoren (z. B. Druck, Dehnung) für Sensor-Fusion sowie der Einbindung von Aktuatoren. Die Datenaufnahme in der Entwicklungsphase wird über einen an die jeweilige Applikation angepassten Datalogger realisiert, der sowohl Live-Beobachtungen wie auch Analyse von aufgenommenen Sensordaten unterstützt.
Bei Fragen wenden Sie sich gerne an Interactive Wear, am besten per E-Mail an info@interactive-wear.com.