Wenn es um autonomes fahren geht, spricht man meist davon, was das Auto sieht oder nicht sieht. Es sieht die Fußgänger, es sieht die Schilder und sieht die anderen Autos auf der Straße. Sensoren nehmen die komplette Umwelt wahr, doch geht diese Wahrnehmung weit über das „sehen hinaus“. In Zukunft, das beweist die aktuelle Forschung des Fraunhofer-Institut für Digitale Medientechnologie IDMT, werden die autonomen Fahrzeuge auch über einen Hörsinn verfügen. Die Forscher in Oldenburg haben einen ersten Prototyp für das Erkennen von Außengeräuschen, wie beispielsweise einer Sirene, entwickelt.
Wir kennen es von unserer eigenen Art mit dem Straßenverkehr umzugehen. Sofern wir nicht gerade telefonieren oder Kopfhörer in den Ohren haben, lassen wir uns bei unserem Alltag auf der Straße häufig von unserem Gehörsinn leiten. Wir hören, aus welcher Richtung die Autos kommen, hören Krankenwagen oder Polizei. Wenn das Auto also alle Tätigkeiten, die wir aktuell hinter dem Steuer so intuitiv durchführen, auch autonom erledigen soll, dann braucht es einen Hörsinn. Bei diesem Hörsinn handelt es sich, so die Informationen des Fraunhofer-Instituts, um Sensoren und Systeme, die in der Lage sind Außengeräusche wahrzunehmen und zu interpretieren. In Kombination mit der bereits eingebauten Radar- und Kamerasensorik ein echter Mehrwert für die selbstfahrende Zukunft.
„Für autonome Fahrzeuge existieren externe akustische Wahrnehmungssysteme bisher nicht, trotz Ihres hohen Anwendungspotenzials. Sie signalisieren beispielsweise im Bruchteil einer Sekunde, wenn ein Fahrzeug mit eingeschaltetem Martinshorn naht. So weiß das autonome Fahrzeug, das es ausweichen muss, damit eine Rettungsgasse gebildet werden kann“ – Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion, Fraunhofer IDMT in Oldenburg
Geräuschanalyse mittels künstlicher Intelligenz
Das Team des Forschungsinstituts, welches aus unterschiedlichen Disziplinen stammt, sah besonders die optimale Signalaufnahme als Herausforderung an. Im Straßenlärm muss das Auto trotz allem auf das kleinste Geräusch reagieren können. Die Sensoren müssen daher die akustischen Signale nicht nur verarbeiten, sie müssen sie auch von Störgeräuschen befreien und ihre Herkunft möglichst genau lokalisieren.
Dafür wurde die hinter der hinter den Sensoren steckende Algorithmus mittels Machine Learning mit den akustischen Signaturen relevanter Töne trainiert, wie beispielsweise das Martinshorn oder ein Hupen. So entstand eine Datenbank, auf die alle Fahrzeuge zugreifen können und die sich, im Laufe des Betriebs, stetig aktualisiert.
Gemeinsam mit Partnern möchte das Fraunhofer den ersten Prototypen realisieren und bis 2025 marktreif machen. Auch für andere Branchen, so die Forscherinnen und Forscher, kann die neue Technologie merkwerte bringen. So beispielsweise bei der Qualitätssicherung in der industriellen Produktion.
Beitragsbild: Fraunhofer-Institut