Kombination sensorischer Evidenzen

Inhaltlich unveränderte Neuauflage. Bei der Datenfusion in technischen Systemen stellt sich die Frage, wie Information aus verschiedenen Sensoren kombiniert werden soll. Dabei könnten Erkenntnisse aus der multimodalen Wahrnehmungsforschung beim Menschen wertvolle Hilfe leisten. In einer Computersimulation wurden dazu die statistischen Kovariationen im auditiven und visuellen Kanal untersucht, die bei typischen Relativbewegungen zwischen einem Beobachter und mehreren Objekten zu erwarten sind. In anschließenden bimodalen Bewegungsdetektions- und Bewegungsprädiktionsaufgaben wurde gefunden, dass die menschliche Wahrnehmungsleistung bei denjenigen Stimuli besser war, bei denen die Kovariation den theoretischen Erwartungen entsprach. Die Ergebnisse lassen vermuten, dass die audio-visuelle Informationsintegration des Menschen der theoretisch erwarteten Kovariation angepasst ist. Die Ergebnisse wurden mit der Linear- und Wahrschscheinlichkeitssummation, dem Maximum-Likelihood-Schätzer, der Dempster-Shafer-Evidenztheorie und dem vom Autor entwickelten Minimummodell modelliert. Dieses Buch ist für alle interessant, die sich mit multimodaler Wahrnehmungs­forschung oder mit der Datenfusion in technischen Systemen beschäftigen.