Neue Autopilot-Sensortechnologie, die das Verlassen des Laserradars ermöglicht?

- Jun 10, 2019-


Elon Musk, CEO von Tesla, hat die technischen Grenzen von Lidar als selbstfahrenden Autosensor am Autopilot Open Day des Unternehmens bombardiert: "Dies ist eine extrem teure und nutzlose Technologie." Als die Bemerkungen herauskamen, war die Branche fassungslos und der Status der drei automatischen Fahrsensoren wie Millimeterwellenradar, Sichtsystem (Kamera) und Laserradar musste neu geschrieben werden.


Autopilot sensor technology


Automatisiertes Fahren erfordert Multisensor-Fusionsanwendungen


Das sichere Fahren eines autonomen Fahrzeugs erfordert drei notwendige und kritische Schritte: Erstens die Erfassungsphase, in der Informationen über die äußere Umgebung und die eigenen Betriebsbedingungen des Fahrzeugs erfasst und gesammelt werden. Tritt dann in die Entscheidungsphase ein und gibt Fahranweisungen aus, die sich hauptsächlich auf den Cloud-Algorithmus verschiedener Steuerchips stützen. abschließend die Ausführungsphase "Setzen des Fahrzeugsignals der Frontend-Entscheidung" in die Tat um. Es ist zu erkennen, dass die Wahrnehmungsphase die anfängliche Garantie für das sichere Fahren autonomer Fahrzeuge ist, genau wie die "Augen und Ohren" des Autos.


Aufgrund der Komplexität der Straßenumgebung und der Fahrbedingungen des Fahrzeugs kann der Einzelfunktionssensor die Fahrzeuginformationen, die sich während der Fahrt in Echtzeit ändern, nicht erfüllen. Yi Jihui, Vice President für globale Markt- und Anwendungstechnik bei der IntelliSense-Division von ON Semiconductor, sagte, dass Sensorfusion (einschließlich Vision-Systeme, Millimeterwellenradar und Lidar) und Sensortiefenwahrnehmung die zukünftigen Trends autonomer Fahrzeugerkennungssysteme sind.


Das Bildverarbeitungssystem (Kamera) kann verschiedene Arten von Erkennungsvorgängen über umfangreiche Bildinformationen wie Fahrspuren, Fußgänger und Objekte sowie Schienen und Verkehrszeichen ausführen. Es ist jedoch nicht für Fernaufnahmen und Geschwindigkeitsmessungen geeignet. Millimeterwellenradar erkennt die Entfernung, Geschwindigkeit und den Winkel von Hindernissen durch Aussenden elektromagnetischer Wellen im Millimeterbereich und ist vor rauen Umgebungsbedingungen wie Regen, Schnee, Staub und Nebel geschützt. Aufgrund von Einschränkungen in Bezug auf Wellenlänge und Größe ist die Auflösung des Millimeterwellenradars zu niedrig und unempfindlicher gegenüber stationären Objekten und sich bewegenden nichtmetallischen Objekten. Die Genauigkeit der Lidar-Erkennung ist die höchste unter den drei und erreicht Millimeter. Es verfügt über die Entfernungsmessfähigkeit des Radars und die Erkennungsgenauigkeit und Auflösung sind höher als beim Radar. Es hat die Aufnahmefähigkeit der Kamera und kann frei von den Lichtverhältnissen sein. Die Nachteile sind hohe Kosten und sind anfällig für extremes Wetter und Rauchstaub.

Kann das Laserradar ausgetauscht werden?


In den letzten Jahren ist das Laserradar zum umstrittenen Thema der Branche geworden. Aufgrund seiner hohen Präzision, hohen Auflösung und Stabilität ist es fast allen autonomen Fahrzeugherstellern in den letzten Jahren nicht gelungen, dem Laserradar auszuweichen, wodurch das Laserradar den Sensormarkt fast monopolisiert und der Preis des Geräts hoch bleibt. Daher entscheiden sich einige Unternehmen, die Kosten für Laserradar zu senken, um Rentabilität zu erzielen. Das erste, was Googles Autopilot Waymo nach seiner Unabhängigkeit unternahm, war der Versuch, die Kosten für Lidar um 90% gegenüber dem Industriestandard von 75.000 US-Dollar zu senken. Das blinde Reduzieren von Kosten kann jedoch auch viele Probleme verursachen. Es versteht sich, dass einige Unternehmen billigeres Festkörperlaserradar eingeführt haben, um den Preis des gesamten Fahrzeugs zu senken, was neue Probleme mit sich gebracht hat. Das Radar ist nicht in der Lage, eine 360-Grad-Drehung zu erreichen, es ist schwierig, die Situation dahinter zu erkennen, und es ist wirtschaftlich nicht machbar, einen neuen Sensor einzuführen, der das sichere Fahren unterstützt.

Um die Kosten des Laserradarteils zu senken, haben einige von Tesla vertretene Autohersteller das Laserradar einfach auf die schwarze Liste gesetzt und andere technische Routen entwickelt. Der Reporter erfuhr von Teslas offizieller Website, dass ein Tesla-Standard insgesamt 8 Kameras, ein 77-GHz-Millimeterwellenradar und 12 Ultraschallradare umfasst. Lu Wenliang, General Manager des Forschungszentrums für die Automobilindustrie von CCID Consulting, sagte, dass Tesla zwar kein Laserradar in der Tesla-Konfigurationsliste enthält, aber versuchen wird, andere Sensoren zu verbessern, und gleichzeitig muss es leistungsstärker sein. Der Back-End-Sensorchip und der Verarbeitungschip.


Es ist zu sehen, dass Musks "Lidar-Idiotentheorie" in diesem Moment nicht zufällig auftaucht, und der Sensor geht in der Tat in die Richtung des Umdenkens. In einem Interview mit China Electronics News sagte Jin Hao, General Manager der Automotive Radar Division der Pekinger Wissenschafts- und Technologiegesellschaft Lei Ke Electronic Information Technology Co., Ltd., dass es einige Zeit dauern werde, um die Kosten für Laserradar zu senken. In Forschungseinrichtungen wird das Laserradar kurzfristig auch der wichtigste Umweltsensor sein. Als Reaktion auf geschäftsorientierte Unternehmen wird es jedoch zum Trend, andere Technologierouten zu wählen, um Laserradar zu vermeiden.


Lu Wenliang sagte, dass die Zukunft der selbstfahrenden Autosensoren drei Möglichkeiten hat: Erstens ist die Leistung des Sensors (visuelles System, Millimeterwellenradar und Laserradar usw.) stärker, entsprechend reduzieren sich die Anforderungen an die Rechenleistung die Entscheidungsseite; Zweitens: Verwenden Sie das externe Netzwerk. In Zukunft wird das 5G-Netzwerk eine stärkere technische Grundlage für das Internet der Fahrzeuge bieten, die jedoch in kurzer Zeit nur schwer zu erreichen sein wird. Die dritte besteht darin, das Laserradar vollständig zu vermeiden und andere Sensoren wie Kameras, Millimeterwellen und Ultraschallradar zu verschmelzen. Anwendungen, die Genauigkeit der Front-End-Sensorerkennung und andere Probleme werden vom Chip durch eine leistungsfähigere Entscheidungsfindung kompensiert.

Laut Jin Hao wird die Möglichkeit, ein unbemannter Kernsensor zu werden, erheblich zunehmen, wenn die Kosten für Laserradar in Zukunft unter die tausendste Größenordnung fallen. Die Reduzierung der Kosten für Laserradar ist jedoch die größte Herausforderung. Tesla scheint auf die Verwendung von LIDAR vollständig verzichtet zu haben und versucht zu haben, Daten über eine Multikamera-Lösung zu sammeln und dann das neuronale Netzwerk mit einem Simulator zu trainieren, der die tatsächliche Umgebung wiederherstellt und die „Erkennung“ des Fahrzeugs auf der Straße realisiert Zustand durch intelligentes Sehen, aber nur den Grad der Zuverlässigkeit. Es ist schwierig, Schlussfolgerungen zu ziehen.


Die Verbesserung der Sensorleistung ist die einzige Möglichkeit, autonomes Fahren zu entwickeln


Unabhängig davon, welchen Weg die Autopilot-Sensortechnologie einnimmt, ist die Verbesserung der Leistung von Bildverarbeitungssystem, Millimeterwellenradar, Laserradar und anderen Geräten eine "Grundkompetenz". Zuallererst ist das fortschrittliche und intelligente Bildverarbeitungssystem die Kernkomponente, um das sichere Fahren selbstfahrender Autos zu gewährleisten. Es ist besonders wichtig, die Zuverlässigkeit des Bildverarbeitungssystems zu verbessern. Yi Jihui sagte, dass das autonome Fahren höhere Anforderungen an die Intelligenz (Pixel, Verständnis und Urteilsvermögen) von visuellen Sensoren stellt.

Tesla ist stolz auf seinen autonomen Antrieb, vor allem dank der guten Optik. Es versteht sich, dass sein visuelles Gerät über insgesamt 8 Fischaugen-, Normal- und Telekameras verfügt: einschließlich einer Rückfahrkamera, die an der Rückseite des Autos angebracht ist, einer vorderen Drei-Augen-Kamera und zwei Seitenkameras auf beiden Seiten, Seite vorne und Seite Die Rückansicht überlappt sich, um sichtbare tote Winkel zu vermeiden, die grundsätzlich die Funktionen des Spurwechsels, des Zusammenflusses und der hohen Geschwindigkeit des L3-Niveaus von Tesla gewährleisten können.


Guo Yuansheng, stellvertretender Direktor des Central Science and Technology Committee der Jiu San Society und stellvertretender Vorsitzender der chinesischen Allianz für Sensoren und das Internet der Dinge, sagte, dass die Kamera in Bezug auf Dynamik und Nahbereich noch viel Raum für Verbesserungen bietet Infrarot-Empfindlichkeit. Das Fahrrad braucht mehr und bessere Kameras. . Jin Wei sagte, dass die Mehraugen-Stereokamera der Entwicklungstrend des zukünftigen Sensorsichtsystems ist. Es wird erwartet, dass die Vorteile von Laserradar und Kamera kombiniert werden. Es hat die Eigenschaften einer hochdichten Punktwolke eines Laserradars, um Hindernisse direkt zu extrahieren und die Entfernung genau zu messen. Die Fähigkeit, visuell zu erkennen und maschinell zu lernen.


Zweitens werden mehr Signalverarbeitungsalgorithmen und neue Radartechnologien auf die Entwicklung von Millimeterwellenradaren übertragen, um ein empfindlicheres Erfassungssystem für die Erkennung von Hindernissen bereitzustellen. Guo Yuansheng sagte, dass das in Automobilen verwendete Millimeterwellen-Radarmodul in den letzten Jahren eine Reihe von Chips enthält, die auf unterschiedlichen Prozessen basieren, was ein relativ umständliches System ist und hohe Kosten verursacht. Um kleiner und kostengünstiger zu werden, arbeiten die Länder an der Entwicklung und Integration von Multifunktionskomponenten sowie an der Standardisierung gängiger Radarchipsätze.


Yi Jihui sagte, dass die SPAD-Technologie (Single Photoelectric Avalanche Diode) mit dem Millimeterwellenradar kombiniert wird, was dem Millimeterwellenradar voraussichtlich dabei helfen wird, die Empfindlichkeit um ein Vielfaches zu erhöhen. Auf dieser Grundlage sagte Jin Hao auch, dass die zukünftige Entwicklungsrichtung des Millimeterwellenradars darin bestehen wird, Punktwolkenradar zu entwickeln, hochauflösende Punktwolkenbilder zu einem niedrigen Preis zu erhalten, das Laserradar schrittweise zu ersetzen und mehr Anwendungsszenarien zu entwickeln.


Schließlich wird erwartet, dass das Laserradar komplexere Autopilot-Umgebungen und andere herausfordernde Anwendungen herausfordert, wenn die Genauigkeitserkennungsfähigkeiten, die hohe Auflösung und die andere Leistung des Lidar weiter verbessert und sogar mit den Funktionen anderer Sensorkomponenten kombiniert werden. Yi Jihui sagte, dass Bildsensor-Technologie die Entwicklung von Laserradar unterstützen kann. Es wird berichtet, dass Forscher an der Universität von Shanghai für Wissenschaft und Technologie kürzlich ein neues laserbasiertes Sensorsystem entwickelt haben, mit dem Objekte in einer smogigen städtischen Umgebung auf einer Entfernung von 45 Kilometern erfasst werden können. Die Technologie verwendet einen einzelnen Photonendetektor in Kombination mit einem einzigartigen Algorithmus, um die spärlichsten Datenpunkte zu "verweben" und Bilder mit ultrahoher Auflösung zu erzeugen. Die neue Lidar-Vision-Technologie verbessert die Begrenzbarkeit der Beugung erheblich und soll neue Bereiche für die hochauflösende, schnelle und leistungsarme optische 3D-Bildgebung über große Entfernungen eröffnen.


Darüber hinaus muss das Laserradar das Problem übermäßiger Vorrichtungskosten nicht lösen. Yi Jihui sagte, dass die Industrie eine neue Siliziumtechnologie entwickelt hat, die traditionelle mechanische Laserradarmaterialien ersetzen kann. Durch die neue Technologie können die Kosten für Laserradargeräte erheblich gesenkt werden, und es wird erwartet, dass sich die Kosten auf wenige hundert Dollar beschränken.


Ein paar:Smartphones und Wearables aktivieren die Sensor-Fusion-Innovation Der nächste streifen:Forscher setzen Ultraschallsensoren ein, um Brücken in Labors zu verwandeln