Ein Forschungsteam der Rice University hat mit EyeDAR einen externen Radarsensor entwickelt, der an Ampeln und Straßenlaternen angebracht werden kann, um von dort Informationen über die aktuelle Verkehrssituation an autonome Fahrzeuge zurückzusenden. EyeDAR soll selbstfahrenden Autos damit eine bessere Sicht auf den Verkehr geben und so deren Fahrsicherheit erhöhen.
Herkömmlicherweise nutzen selbstfahrende Fahrzeuge interne Sensorik wie Kameras, Lidar oder Radarsysteme, um die Situation im Verkehr in Echtzeit zu erfassen und autonom handeln zu können. Das klappt aber nicht immer so gut, etwa wenn Verkehrsteilnehmer Teile der Umgebung verdecken, die Sichtverhältnisse durch Nebel, Regen oder Dunkelheit beeinträchtigt sind und die Erkennungssysteme eine Verkehrssituation so nicht schnell und ausreichend genug erfassen können. Die Forscher der Rice University haben deshalb nach einer Möglichkeit gesucht, die internen Sensoren um externe zu erweitern, die aus einer erhöhten Überblickposition heraus die Verkehrssituationen besser erfassen können.
Dazu haben die Forscher einen Millimeterwellen-Radarsensor entwickelt, der etwa so groß wie eine Orange ist, wie die Wissenschaftler in einer Mitteilung schreiben. Die passende Studie „EyeDAR: A Low-Power mmWave Tag that Senses and Communicates 3D Point Clouds to Enhance Radar Perception“ wurde Ende Februar auf dem Hotmobile-Kongress, The International Workshop on Mobile Computing Systems and Applications, vorgestellt. Der Sensor nutzt dabei die vom Fahrzeug ausgesendeten Radarsignale, um sie aus einer besseren Position heraus an das Fahrzeug wieder zurückzusenden.
Zusätzliche „Augen“ für autonome Fahrzeuge
EyDAR besteht im Wesentlichen aus zwei Komponenten, einer aus Resin 3D-gedruckten kugelrunden Lüneburg-Linse sowie einem Antennenarray auf der Rückseite. Die Wissenschaftler haben sich dabei am menschlichen Auge orientiert. Die Linse fokussiert einfallende Signale aus jeder Richtung auf einen Brennpunkt auf der gegenüberliegenden Oberfläche. Das Antennenarray, das die Linse auf der Rückseite umgibt, funktioniert dabei ähnlich wie eine menschliche Netzhaut, indem es das Signal und zugleich die Richtung erfasst. Diese Konstruktion hat einen entscheidenden Vorteil gegenüber herkömmlichen Radarsystemen, die auf große Antennenarrays und komplexe Algorithmen angewiesen sind, um die Winkel zu bestimmen. Denn die dafür nötige energieintensive Rechenleistung wird von EyeDAR nicht benötigt.
EyeDAR setzt stattdessen auf mehr als 8000 einzigartig geformte, winzige Einheiten mit unterschiedlichem Brechungsindex auf, die so angeordnet sind, dass einfallende Radarsignale an die exakte Position des Antennenarrays weitergeleitet werden. Nach Angaben der Wissenschaftler soll das System dadurch die Zielrichtung bis zu 200-mal schneller bestimmen können als herkömmliche Radarsysteme.
Die Radarreflexionen werden an das sendende Radargerät im Fahrzeug zurückgeschickt. Der EyeDAR-Sensor vereint damit Sensorik und Kommunikation in einem. Dadurch fällt das System kompakt aus, ist kostengünstig und arbeitet energiesparend. Die Wissenschaftler sind der Ansicht, dass das System besonders an Straßen in Gegenden mit hoher Verkehrsdichte eingesetzt werden könnte, um den Einsatz autonomer Fahrzeuge sicherer zu machen. Prinzipiell könnte EyeDAR auch in anderen, autonom agierenden Systemen wie Robotern oder Drohnen zum Einsatz kommen.
(olb)











English (US) ·