Seminar Anwendungen der Signalverarbeitung und Mustererkennung


Im Seminar berichten Mitarbeiter, Diplomanden, Studien- und Projektarbeiter regelmäßig über laufende Arbeiten. Interessierte Gäste sind herzlich willkommen. Das Seminar ist obligatorisch für Studierende, die in der Signalverarbeitung / Mustererkennung an einem Forschungsprojekt mitarbeiten und / oder eine Abschlussarbeit schreiben. Die Studierenden sollen insbesondere lernen, die Ergebnisse ihrer Arbeiten auch adäquat aufbereiten und präsentieren zu können.

Themen im SS 2019:

Die Themen in diesem Semester beziehen sich auf die 2 aktuellen Forschungsprojekte:
1. Software "Voxel Viewer" anpassen
   Für die Darstellung von 3D-Bildern aus Tiefenbildkameras stellt Texas Instruments
   die Software Voxel Viewer zur Verfügung. Diese open source Software soll angepasst
   werden und andere Kameramodelle unterstützen.
2. Zynq mit Linux
   Vergleichende untersuchende Arbeit zur verschiedenen Linux-Varianten mit Vor- und
   jeweiligen Nachteilen.
3. Zynq mit Linux für 3D-Bildverarbeitung
   Es soll eine Architektur auf einem Zynq entworfen werden, welche mit Linux arbeitet.
   An dem Zynq ist eine (oder mehrere) Tiefenbildkamera angeschlossen. Die Bilder
   sollen über HDMI angezeigt werden und im Zynq bzw. im Linux verarbeitet werden können.
4. Kalibrierung einer Tiefenbildkamera
   Es soll ein Verfahren entwickelt werden, welches eine 3D-Kamera kalibriert.
   Verzerrungen durch die Optik und Herstellungstoleranzen sollen korrigiert
   werden, so dass ein gutes Bild entsteht. Untersuchungen zu existierenden
   Testaufbauten bis zur Konstruktion eigener Messplätze sind möglich.
5. Berechnung der Perspektive von einer bzw. mehreren Tiefenbildkameras im Raum
   Anhand von Referenzpunkten im Raum soll ein Kamerasystem selber die Perspektive
   im Raum bestimmen. Bei mehreren Kameras soll das dazu führen, dass die 3D-Punktwolken
   fusioniert werden können. Umsetzung zu Testzwecken mit Kinect oder TI-3D-kamera möglich.
6. Fusion von 3D-Punktwolken
   Mehrere Tiefenbildkameras nehmen gleichzeitig Bilder auf. Diese sollen
   zu 3D-Wolken vereint werden, so dass Objekte aus mehreren  Perspektiven
   erkennbar sind. Durch die Verwendung von mehreren Kameras sollen
   Verdeckungen aufgelöst werden. Zur Darstellung dieser 3D-Objekte
   soll eine geeignete Software verwendet werden.
7. Beacon-Erkennung
   Es soll ein System aus einem optischen Leuchtfeuer und einer Tiefenbildkamera
   entwickelt werden. Die Kamera soll die Position  des Leuchtfeuers im Raum bestimmen.
8. Es soll ein FPGA/Zynq-Board um eine Ethercatschnittstelle erweitert werden.
   Diese Schnittstelle kann als externes Modul dazugekauft werden und muss an
   den FPGA angeschlossen werden. Weiterhin muss eine logische Schnittstelle
   bereitgestellt werden, um Daten über Ethercat zu senden/empfangen.
9. Rotmilan-Monitoring

Termine:




Hinweise für den Vortrag:

Kriterien für die Bewertung von Vortrag und Diskussion:

Struktur des Vortrags Mündlicher und schriftlicher Ausdruck Inhalt Diskussion
Prof. Dr. B. Meffert
11.04.2019, 15:51:52