Zitierlink:
https://nbn-resolving.org/urn:nbn:de:hbz:467-8040
Dateien zu dieser Ressource:
Datei | Beschreibung | Größe | Format | |
---|---|---|---|---|
loepprich.pdf | 80.56 MB | Adobe PDF | Öffnen/Anzeigen |
Dokumentart: | Doctoral Thesis | Titel: | Lokalisation und Verfolgung von Personen in Echtzeit unter Verwendung kooperierender 2D/3D-Kameras | Sonstiger Titel: | Real-Time localization and tracking of persons using cooperative 2D/3D-cameras | AutorInn(en): | Loepprich, Omar Edmond | Institut: | NRW-Zentrum für Sensorsysteme (ZESS) | Schlagwörter: | 2D/3D-devices, surveillance system, multiple simultaneously operating MultiCams | DDC-Sachgruppe: | 004 Informatik | GHBS-Notation: | TUH TVVC TVVG |
Erscheinungsjahr: | 2013 | Publikationsjahr: | 2014 | Zusammenfassung: | Die grundsätzliche Zielsetzung von intelligenten Systemen zur Überwachung von Innenräumen besteht in der automatisierten Interpretation von Aktionen in dem zu betrachtenden Gebiet. Eine Prämisse hierfür ist die Fähigkeit der Detektion, Lokalisation, Verfolgung und Klassifikation von Objekten im entsprechenden Zielbereich. Entscheidend für die Konzeption eines Überwachungssystems ist weiterhin das primäre Einsatzgebiet. Während für kleine Überwachungsbereiche und unter der Annahme nur weniger gleichzeitig vorhandener Objekte eventuell die Verwendung eines einzelnen Sensorsystems ausreicht, bedarf es im Fall größerer Bereiche, mit mehreren gleichzeitig vorhandenen und zu verfolgenden Objekten, in der Regel einer verteilten und miteinander kooperierenden Sensorik. Ein in letzter Zeit verstärkt verfolgter Ansatz zur Steigerung der Leistung der Prozesse von Detektion, Lokalisation und Klassifikation liegt dabei in der Verwendung einer Kombination von 2D- und 3D-Informationen, welche, je nach Anforderung, auf Pixel-, Merkmal- oder Entscheidungsebene miteinander fusioniert werden. Die Kombination unterschiedlicher Systeme zu 2D/3D-Messsystemen ist jedoch keineswegs trivial. Zunächst bedarf es im Falle der Betrachtung beweglicher Objekte einer zeitlichen Synchronisation der anfallenden Daten. Im Hinblick auf eine effektive Fusion ist weiterhin eine Registrierung der Daten der unterschiedlichen Quellen notwendig. Tritt zusätzlich die Notwendigkeit einer koordinierten Verwendung mehrerer Systeme auf, so kann das aufgrund der sich ergebenden Komplexität in Bezug auf die Handhabung der informationsliefernden Einheiten in einer inakzeptablen Operation des Gesamtsystems münden. Die am Zentrum für Sensorsysteme (ZESS) entwickelte MultiCam, ein zurzeit einmaliges Sensorsystem zur kombinierten Akquisition von CMOS-basierten Intensitäts- (2D) und Time-ofFlight (ToF) basierten Distanzdaten (3D) einer gesamten Szene, erlaubt aufgrund ihres monokularen Aufbaus eine drastische Vereinfachung der Registrierung der 2D- und 3DInformationen. Weiterhin ermöglicht die interne Logik, untergebracht in einem dedizierten FPGA, eine akkurate Synchronisation der unterschiedlichen Informationsströme. Durch die Reduktion der Komplexität der Prozesse der Registrierung sowie Synchronisierung der 2D- und 3D-Daten bietet sich die Möglichkeit der Kombination einer Vielzahl von simultan operierenden MultiCams zu einem Überwachungssystem an, mit im Vergleich zu konventionellen 2D/3D-Systemen drastisch vereinfachter Handhabung. Bedingt durch den Einsatz der ebenfalls am ZESS entwickelten Beleuchtungseinheiten, erlauben die im Rahmen dieser Arbeit verwendeten MultiCams die Überwachung eines Distanzbereichs bis ca. 9 m bei einer Bildwiederholrate von 20 Bildern pro Sekunde. Dieses entspricht einem Entfernungsbereich, der zurzeit von ToF-Systemen vergleichbarer Art nur unter Einsatz erhöhter Integrationszeiten und somit reduzierter Bildwiederholraten abgedeckt werden kann. Weiterhin ergibt sich durch die Verwendung einer Linse mit einer Brennweite von 6mmdie Möglichkeit der Überwachung von Volumina, in denen sich mehrere Personen simultan aufhalten und miteinander interagieren können. In Verbindung mit der vorhandenen Zeitauflösung kann damit der Bewegungsdynamik der Objekte effektiv Rechnung getragen werden. Aufgrund der genannten Eigenschaften eignet sich die MultiCam somit ideal zur Detektion, Lokalisation, Verfolgung und Klassifikation von Objekten in Innenräumen. Durch die Verwendung der Informationen von mehreren, simultan operierenden MultiCams mit verschiedenen Ausrichtungen und einem sich teilweise überlappenden Sichtbereich, lässt sich weiterhin eine direkte Erweiterung des Überwachungsbereichs sowie eine Reduktion durch gegenseitige Objektverdeckungen induzierten Uneindeutigkeiten erreichen und ermöglicht die Erzeugung von Objekttrajektorien mit einem erhöhten Informationsgehalt. Dem Problem der anfallenden Datenmenge, die durch die Verwendung mehrerer simultan operierender MultiCams entsteht, wird durch den Einsatz eines agentenbasierten verteilten Systems begegnet. Informationsliefernde Agenten, bestehend aus einer MultiCam mit zugehöriger Prozessierungseinheit, übernehmen die Erzeugung von lokalen Informationen bzw. Features bzgl. der aus ihrer Sicht vorhandenen Objekte und senden diese in Form eines Statusvektors an einen zur Fusion aller Informationen zuständigen Agenten. Weiterhin können aufgrund der gegenseitigen Unabhängigkeit der informationsliefernden Agenten die Daten der vorhandenen MultiCams parallel bearbeitet werden, was eine einfache Skalierung des Gesamtsystems erlaubt. The fundamental objective of intelligent systems targeted towards surveillance of indoor areas lies in the automated interpretation of actions within the monitored space. One premise therefore is the ability to detect, localize, track and classify objects within the surveyed area In terms of system design, it’s also crucial to incorporate the targeted application area. For the case of surveillance of just relatively small volumes and with the additional assumption that only very few objects are simultaneously present within the detection area, data from a single sensor might be sufficient in order to infer adequate information. Increasing the area to be monitored and also allowing multiple objects to dynamically interact in the space to be surveyed, usually leads to the necessity to apply multiple distributed sensor systems which, in order to generate useful information, have to work together in a cooperative manner. One in recent times increasingly adopted approach in order to increase the performance of detection, localization and classification is to utilize a combination of devices delivering 2D- and 3D-data. Depending on the requirement, fusion of the information is then done on pixel-, feature or decision-level. The combination of different systems in a 2D/3D-measurement device is not trivial, though. In case of taking moving objects into account, there’s a necessity to provide an adequate temporal synchronisation mechanism between the participating devices. With regard to an effective fusion process, the process of registration of the acquired data needs also to be applied. Furthermore, by combining multiple of such 2D/3D-devices into one all encompassing system, the additional need for a coordinated management emerges. Having to cope with all of the aforementioned points might well lead to a system complexity which is intricate to handle and which in turn might result in an unacceptable overall system performance. The at the Center for Sensorsystems (ZESS) developed MultiCam, an at the moment unique sensor system usable to acquire a combination of CMOS-based intensity (2D) and Time-of-Flight (ToF) based distance information (3D) of a complete scene. Due to the monocular set-up, a drastic simplification of the process of image registration of the 2D- and 3D-images is attained. Furthermore, the internal logic, situated in an embedded FPGA, permits an accurate temporal synchronisation of the different information streams. Due to the reduction of the overall complexity of the processes of registration and temporal synchronisation of the 2D- and 3D-data, it is feasible to combine a multitude of simultaneously operating MultiCams to a surveillance system with, in comparison with conventional 2D/3D-systems, a drastic simplification in terms of handling. The additional application of the also at the ZESS developed dedicated MultiCam illumination units enables to supervise an area up to a distance of maximal 9mat a camera frame rate of 20fps. With similar ToF devices, the same distance range can only be achieved by an increase of the sensor integration times and which in turn directly leads to a reduced frame rate. Furthermore, as a result of the utilization of a lens with a focal length of 6mm, it is possible to monitor volumes in which multiple persons can simultaneously be present and also interact with each other. Due to the available temporal resolution, one can account for the dynamic behaviour of the objects effectively. As a results of all of the aforementioned properties, the MultiCam is ideally suited for the detection, localization, tracking and classification of objects in indoor areas. Through the combination of multiple simultaneously operating MultiCams with different orientations and partially overlapping field of views, it is possible to directly extend the surveyed area and also reduce the amount of mutual object occlusion. This directly leads to the generation of object trajectories with an increased information content. In order to respond to the amount of data generated by the simultaneous operation of multiple devices, an agent based system is utilized. Information delivering agents, composed of one MultiCam with dedicated processing unit, are responsible for the direct processing of the acquired raw sensor data. Based on their view onto the scene, they generate information in form of a local status vector which they send to a dedicated fusion agent. This fusion agent is in turn responsible for the combination of all of the local information received into one global status vector. Due to the mutual independence of the participating agents, parallel processing of the acquired data is inherently possible which in turn results in the possibility to be able to scale the system in an easy manner. |
URN: | urn:nbn:de:hbz:467-8040 | URI: | https://dspace.ub.uni-siegen.de/handle/ubsi/804 | Lizenz: | https://dspace.ub.uni-siegen.de/static/license.txt |
Enthalten in den Sammlungen: | Hochschulschriften |
Diese Ressource ist urheberrechtlich geschützt. |
Seitenansichten
618
checked on 27.12.2024
Download(s)
203
checked on 27.12.2024
Google ScholarTM
Prüfe
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt, soweit nicht anderweitig angezeigt.