Sensordatenfusion zur Minimierung von Inkonsistenz und Degradierung
Autoren
Mehr zum Buch
In dieser Arbeit werden Konzepte und Methoden zur Bewertung und Behandlung von Sensordatenqualität betrachtet. Definiert werden Metriken und Modelle für die Bewertung verschiedener Qualitätsaspekte von Sensordaten. Darauf aufbauend werden Verfahren zur Minimierung von Degradierung vorgestellt, welche für den Abgleich lokaler Weltmodelle eingesetzt werden. Des Weiteren werden Verfahren zur Auflösung von Inkonsistenzen erläutert, die eine robuste Sensordatenintegration in globale Umgebungsmodelle und damit deren Erweiterung und Aktualisierung ermöglichen. Zusätzlich wird ein lernendes Verfahren zur Situationserkennung vorgestellt. Es ermöglicht die Interpretation von Sensordaten um Aussagen und Wahrscheinlichkeiten der Situationsebene abzuleiten und zu bewerten. Ziel ist es, kontextbezogenen Anwendungen die verteilt verwalteten Umgebungsmodelle eines offenen Systems zur Verfügung zu stellen, wobei eine möglichst konsistente Sicht auf die Umgebung hergestellt werden soll. Hierfür werden Kennzahlen zur Datenqualität mit einheitlichem Wertebereich für stochastische Messfehler, Querempfindlichkeit, Signalverarbeitung, Zuverlässigkeit und zu temporalen Aspekten definiert. Modellierungen von Sensoren, Sensordaten und deren Degradierung ermöglichen dem SensorContextServer, dem SensorClient und verschiedenen Anwendungen den Umgang mit unterschiedlicher Datenqualität. Für den Abgleich lokaler Weltmodelle und die Fusionierung verteilter Beobachtungen wird der Einsatz von Schätzfiltern zur Informationsalterung untersucht. Verzögerungen durch Kommunikationswege und durch nicht synchronisierbare Sensoren beeinflussen die Qualität eines Fusionsergebnisses. Für die dreidimensionale Lokalisierung eines Balls im RoboCup Szenario oder einer Person im Nexuslabor wurde untersucht, wie diese Einflüsse durch Schätzfilter zur Informationsalterung minimiert werden können. Erarbeitet wurde weiterhin eine robuste Sensordatenintegration in globale Umgebungsmodelle, wodurch diese erweitert und aktualisiert werden können. Zur Datenfusion wird hierbei das neu entwickelte Verfahren des normiert gewichteten Mittels eingesetzt. Hierfür werden die zur Datenfusion eingesetzten Gewichte, welche auf einer Schätzung der Standardabweichungen der Sensoren basieren, normiert. Dadurch wird eine Singularität im Bewertungssystem verhindert und nur so kann das Verfahren dauerhaft eingesetzt werden. Durch die Schätzung der Standardabweichungen der Sensoren führt das Verfahren zur Qualitätsbewertung eine Langzeitbeobachtung der einzelnen Messungen durch. Es wird kombiniert mit Fuzzy Clustering, welches den Vergleich aktuell durchgeführter Messungen verschiedener Sensoren erlaubt um Ausreißer der Messungen zu identifizieren. Des Weiteren wird der Einsatz einer logistischen Regression für eine Situationserkennung beschrieben. Das lernende Verfahren interpretiert unscharfe Sensordaten, um einzelnen Aussagen Wahrscheinlichkeiten zuzuordnen. Damit ist ein Übergang von der Sensordatenebene zur Situationsebene möglich. Evaluiert wurde das Verfahren mittels einer Auswertung von Geräuschpegelmessungen um zu unterscheiden, ob eine Sitzung stattfindet, ob Studenten im Labor arbeiten oder ob Stille vorherrscht.