Innovationen in der Sensorik

2022-10-22 21:21:22 By : Ms. Sandy Pan

Besseres Datenmanagement, erhöhte Genauigkeit und Ansätze mit geringerem Stromverbrauch stehen ganz oben auf der Liste.Sensoren sind die „Augen“ und „Ohren“ von Prozessoren, Koprozessoren und Rechenmodulen.Sie kommen in allen Formen, Formen und Funktionen vor und werden in einer schnell wachsenden Zahl von Anwendungen eingesetzt – von Edge Computing und IoT bis hin zu Smart Cities, Smart Manufacturing, Krankenhäusern, Industrie, maschinellem Lernen und Automotive.Jeder dieser Anwendungsfälle beruht auf Chips, um Daten darüber zu erfassen, was in unserer analogen Welt passiert, und die Daten dann zu digitalisieren, damit sie sowohl von Menschen als auch von Maschinen verarbeitet, gespeichert, kombiniert, abgebaut, korreliert und genutzt werden können.„In der neuen Ära der Kantenverarbeitung in vielen verschiedenen Anwendungsbereichen sehen wir mehrere Trends in der Entwicklung der Sensortechnologie der nächsten Generation“, sagte Rich Collins, Director of Product Marketing bei Synopsys.„Sensorimplementierungen gehen über die grundlegende Notwendigkeit hinaus, eine Kombination von Umgebungsbedingungen wie Temperatur, Bewegung, Feuchtigkeit, Nähe und Druck auf effiziente Weise zu erfassen und zu interpretieren.“Energie- und Leistungseffizienz sind für diese Anwendungen entscheidend.Viele sind auf Batterien angewiesen, teilen Ressourcen zwischen verschiedenen Sensoren und enthalten oft eine Art ständig eingeschalteter Schaltung für schnelleres Hochfahren oder zur Erkennung von Bewegungen, Gesten oder bestimmten Schlüsselwörtern.In der Vergangenheit wurden diese Arten von Funktionen typischerweise in den zentralen Prozessor eingebaut, aber dieser Ansatz ist aus Energieperspektive verschwenderisch.„In einer Vielzahl unterschiedlicher Anwendungsfälle in den Automobil-, Mobil- und IoT-Märkten scheint sich die Entwicklung eines flexiblen Systems, das mit dedizierten Prozessoren optimiert ist, sowie Hardwarebeschleunigern, die den Host-Prozessor entlasten, als Grundvoraussetzung abzuzeichnen“, sagte Collins.„Auch die Übermittlung von Sensordaten wird für viele dieser Implementierungen zu einem wesentlichen Merkmal.Und da Kommunikationsaufgaben oft periodischer Natur sind, sehen wir dieselben Verarbeitungselemente, die für die Sensordatenerfassung, Fusionsverarbeitung und Kommunikationsaufgaben genutzt werden, was eine energieeffizientere Nutzung der Verarbeitungsressourcen ermöglicht.“Dies gilt insbesondere für die Automobilindustrie, die sich im Wandel von mechanisch und analog zu elektrisch und digital zum Aushängeschild für Sensortechnologie entwickelt.Das Motorsteuergerät (ECU) eines neuen Autos steuert jetzt alles von der Beschleunigung und Verzögerung bis zur Überwachung des Fahrzeugs innen und außen.Fortschrittliche Fahrerassistenzsysteme (ADAS) stützen sich auf verschiedene Arten von Sensoren, die am Fahrzeug montiert sind, um die Daten zu sammeln, die das Steuergerät für Entscheidungen benötigt.Dies wird immer kritischer, wenn Fahrzeuge in den nächsten zehn Jahren immer mehr Autonomie erreichen.Sensoren werden eine wichtige Rolle bei der Erfüllung von Sicherheits- und Komfortzielen spielen.Daten in Bewegung An der Automobilfront wird der Fortschritt von SAE Level IV (halbautonom) zu Level V (vollständig autonom) von einem Prozess abhängen, bei dem einzelne intelligente ECUs sensorgesammelte Informationen verwenden, um Entscheidungen zu treffen.Dieser Prozess besteht aus drei Hauptschritten:Tatsächlich muss das Fahrzeug seine Umgebung „sehen“ oder „fühlen“, um auf der Straße zu bleiben und Unfälle zu vermeiden.Heutzutage stammen diese Signale aus Licht, elektromagnetischen Wellen, Infrarot (IR) und Ultraschall und müssen in digitale Datenbits umgewandelt werden.Ein Fahrzeug verwendet eine Kombination von Sensoren – zum Beispiel Lidar, Radar und/oder HD-Kameras – um Objekte, einschließlich anderer sich bewegender Fahrzeuge, zu erkennen und ihre Entfernung und Geschwindigkeit zu bestimmen.Die Autohersteller haben noch nicht standardisiert, welche Sensoren für das autonome Fahren am besten geeignet sind.Beispielsweise verfolgt Tesla für einige seiner neueren autonomen Modelle einen reinen Vision-Ansatz, indem es KI-Supercomputer und mehrere HD-Kameras kombiniert.Ein solcher Supercomputer besteht aus 5.760 GPUs, die 1,8 exaFLOPS (EFLOPS) mit einer Verbindungsgeschwindigkeit von 1,6 Terabyte pro Sekunde (TBps) erreichen können.Der Speicher hat eine Kapazität von 10 Petabyte.Teslas Ziel ist es im Wesentlichen, mit maschinellem Lernen das menschliche Fahren zu simulieren, ein Ansatz, der intensives Training und Lernen erfordert.Abb. 1: Unterschiedliche Eigenschaften von Automotive-Sensoren.Quelle: IDTechExNicht jeder stimmt zu, dass dies der beste Ansatz ist.Da Sensoren Einschränkungen haben, glauben andere Autohersteller, dass es am besten ist, mehrere Sensoren zu kombinieren und sich auf die Sensorfusion zu verlassen, um die genauesten Informationen für die Entscheidungsfindung zu erhalten.„Wir sehen derzeit die Verwendung einer Kombination aus einem oder mehreren Sensoren zur Unterstützung des Fahrens“, sagte Amol Borkar, Direktor für Produktmanagement und Marketing für Tensilica Vision und KI-DSPs bei Cadence.„Wenn wir die externe Betrachtung betrachten, dann verwenden ADAS oder autonome Fahrzeuganwendungen typischerweise die von diesen Sensoren gesammelten Daten/Informationen, um Entscheidungen über verschiedene Elemente in der Umgebung des Fahrzeugs zu treffen.Dazu können Straßenschilder, Fußgänger, Objekte und Trümmer, Ampeln, Straßen- und Spurmarkierungen usw. gehören. Durch die Verwendung einer Kombination von Sensoren gibt es mehr Einblick in die Umgebung, als ein einzelner Sensor bieten kann.Beispielsweise hat eine Kamera allein bei Regen und Schnee Schwierigkeiten, die Straße zu sehen, aber durch die Kombination mit Kurz-/Langstreckenradar und/oder Lidar verschwindet dieses Problem meistens.“Die richtige Interpretation dieser Daten kann eine Frage von Leben und Tod sein.Wenn Menschen im Regen fahren und nachts auf der Autobahn ein Objekt entdecken, werden sie normalerweise langsamer, weil es schwer ist, zu sagen, um was es sich bei dem Objekt handelt.Sie müssen wissen, wie groß das Objekt ist und ob es das Fahrzeug beschädigen wird, wenn sie weiterfahren.Aber ein Supercomputer, der die gleichen Fragen stellt, kann zu einem anderen Schluss kommen.Bei einem viel beachteten tödlichen Unfall im Jahr 2016 konnte das Tesla-Autopilotsystem einen weißen Lastwagen nicht „sehen“, da er dachte, er sei die Farbe des Himmels.Der tödliche Unfall verdeutlicht die Bedeutung der Interaktionen, die zwischen Sensordaten, der Interpretation des autonomen Fahrens und der Entscheidungsfindung stattfinden müssen.Hätte das Autopilotsystem Zweifel gehabt, hätte es abgebremst und den tödlichen Unfall vermieden.Sensordatenschnittstellen und -architektur Unter der Motorhaube moderner Fahrzeuge befindet sich ein Netzwerk elektronischer Steuermodule (ECMs) für viele verschiedene Funktionen.Sensoren sind mit diesen ECMs verbunden, die wiederum miteinander verbunden sind.Traditionell wurde das Controller Area Network (CAN) als zentraler Datenpfad verwendet, auf dem verschiedene Anwendungsprotokolle liefen.Derzeit gibt es keinen Standard für Anwendungsprogrammierschnittstellen (API) für ECM.Die Entwicklung des OpenXC-Standards ist jedoch im Gange, angeführt von Ford.Mit OpenXC würden proprietäre CAN-Nachrichten in das OpenXC-Nachrichtenformat übersetzt, um über verschiedene Schnittstellen wie USB, Bluetooth oder 3G/Ethernet/Wi-Fi an das Hostgerät gesendet zu werden.Ein aufkommender Mobile Industry Processor Interface (MIPI)-Standard unterstützt Sensorverbindungen mit erweiterten Automotive-Schnittstellen.Die Organisation hinter MIPI ist die MIPI Alliance.Die 2003 gegründete internationale Organisation mit 400 Mitgliedern hat mehrere Standards herausgegeben.Zu den Mitgliedern gehören Hersteller mobiler Geräte, Softwareanbieter, Halbleiterunternehmen, Anbieter von IP-Tools, Automobil-OEMs, Tier-1-Zulieferer und Prüfgerätehersteller.Als Vorstandsmitglieder teilnehmende Unternehmen sind unter anderem Intel, Texas Instruments, Qualcomm und die Robert Bosch GmbH.Der Plan der MIPI Alliance ist die Entwicklung eines umfassenden Satzes von Schnittstellenspezifikationen für mobile und mobilbeeinflusste Geräte, einschließlich Automobilsensorschnittstellen.Diese Spezifikationen decken verschiedene Schnittstellen innerhalb des Fahrzeugs ab, darunter:Bild 2: Die Spezifikationen der MIPI Alliance werden die verschiedenen Schnittstellen innerhalb des Fahrzeugs abdecken.Quelle: MIPI AllianceNeuer Standard für Sensorschnittstellen Die MIPI Alliance hat den A-PHY v1.1-Standard am 11. Oktober 2021 zur Überprüfung freigegeben, und es wird erwartet, dass er in den nächsten Monaten verabschiedet wird.Dieser Standard, der sich auf die Physical-Layer-Schnittstelle des Automotive Serializer-Deserializer (SerDes) konzentriert, verdoppelt die Downlink-Datenrate der Vorgängerversion auf 32 Gbit/s.Die Datenrate der Uplink-Ausrüstung wird ebenfalls doppelt so schnell sein (200 Mbit/s).Als Novum in der Branche bietet der A-PHY v1.1-Standard eine asymmetrische SerDes-Schnittstelle mit großer Reichweite zwischen Fahrzeugbildsensoren, Displays und den ECUs für ADAS, In-Vehicle-Infotainment (IVI) und autonome Fahrsysteme (ADS). ).Darüber hinaus wird es auch als IEEE 2977-Standard übernommen.Abb. 3: Das Steuergerät ist mit Sensoren und Displays verbunden.Quelle: MIPI Alliance„Da Radar- und Lidar-Sensoren für ADAS-Anwendungen weit verbreitet sind, erwarten wir, dass MIPI weiterhin einen wesentlichen Beitrag zur Standardisierung von Sensorschnittstellen leisten wird“, sagte Ashraf Takla, CEO und Gründer von Mixel.„Außerdem werden Bildsensoren verwendet, um Umgebungsvideos für die Fahrer zu erzeugen, wie im Fall von Rückfahrkameras.Diese Bildsensoren verwenden alle MIPI-Schnittstellen.Der MIPI D-PHY (und neuerdings MIPI C-PHY) mit einem MIPI CSI-2 TX- oder MIPI CSI-2 RX-Controller wird sowohl auf der Sensor- als auch auf der Prozessorseite der Verbindung verwendet.Bis heute ist CSI-2 immer noch der De-facto-Standard für viele Kamera- und Sensoranwendungen.Da die Zahl der Sensoren in Autos immer größer und komplexer wird, gehen wir davon aus, dass der Bedarf an MIPI-Standards weiter steigen wird.“Abb. 4: Die MIPI-Spezifikationen bieten detaillierte Fahrzeugschnittstellen, einschließlich Chip-zu-Chip-Verbindungen.Quelle: MixelVon dort aus ist der Anschluss der Sensoren relativ einfach.„Es gibt zwei Möglichkeiten, dies anzugehen“, sagte Borkar von Cadence.„Wenn der Sensor Teil einer größeren Lösung ist – zum Beispiel befinden sich der Sensor und die Recheneinheit im selben Paket, wie in einem Fahrerüberwachungssystem (DMS) oder den meisten ADAS-Lösungen – dann verbindet sich der Sensor normalerweise über MIPI und SPI, was sind bekannte Industriestandards für Hochgeschwindigkeitsdaten.Die Daten werden vom Sensor empfangen und dann von einer neuronalen Verarbeitungseinheit (NPU) oder einem digitalen Signalprozessor (DSP) verarbeitet.Es gibt einige Lösungen, wie 360-Grad- oder Surround-View-Fahrzeugkamerasysteme, die eine Anordnung von vier oder mehr Sensoren verwenden, um eine 360-Grad-Ansicht um das Auto herum zu erstellen.In solchen Fällen senden die Sensoren, die von der Recheneinheit entfernt sind, typischerweise den CAN-Bus oder Highspeed-Ethernet, um die Bilder oder Daten zur weiteren Verarbeitung an die Recheneinheit zu senden.“Sensor-Ausblick Automotive-Sensortechnologien sind nicht perfekt.Aus diesem Grund wird der Sensorfusionsansatz, bei dem mehrere Sensoren verwendet werden, von vielen bevorzugt.Auf dem Weg zum vollautonomen Fahren sind noch Herausforderungen zu meistern.„Automobilsensoren werden sich weiter verbessern, um ihre Mängel zu beheben“, sagte Ted Chua, Direktor für Produktmanagement und Marketing für Tensilica DSPs bei Cadence.„Die Hersteller von Radarsensoren arbeiten daran, Schlüsselkomponenten wie die Winkelauflösung und die Fähigkeit zur Objektklassifizierung zu verbessern.Die Hersteller von Lidar-Sensoren konzentrieren sich auf innovative Lösungen, um die Kosten aggressiv zu senken und die Massenfertigungsfähigkeit zu erreichen, was sich auf die Kosten bezieht.Wie oben erwähnt, müssen in zukünftigen AVs alle Sensoren kohärent zusammenarbeiten.Daher müssen die Signale der verschiedenen Sensoren für die Entscheidungsfindung zusammengeführt werden.“All dies wird jedoch einige Zeit in Anspruch nehmen.„Heute sind die meisten Sensoren für funktionale Sicherheit ASIL-B-zertifiziert“, sagte Chua.„Aber werden ASIL-B-Sensoren für autonome L4- und L5-Fahrzeuge angesichts der Sicherheitsziele immer noch ausreichend sein?Schließlich gibt es in einem AV keinen Menschen hinter dem Steuer, der die Sicherheitsanforderungen unterstützt.Müssen die zukünftigen Sensoren ASIL-D-zertifiziert sein?Wie können wir die ASIL-D-Anforderung für AVs auf kostengünstige Weise intelligent gestalten?Dies ist nur die Spitze des Eisbergs an Überlegungen und Herausforderungen, die wir angehen müssen, um eine vollständige Autonomie für unsere zukünftigen AVs zu erreichen.“Zukünftige Fortschritte Für die Chipindustrie stellt dies eine Herausforderung dar, die jedoch potenziell lukrativ ist.Zukünftige Sensoren müssen kompakter, leichter, genauer und zuverlässiger sein.Aber um Fahrsicherheit zu erreichen, müssen Fahrzeugdaten – einschließlich der von den Sensoren generierten Daten – gesichert werden, sowohl an Ort und Stelle, wo sie gespeichert sind, als auch während der Übertragung.„Es gibt zwei Hauptwege, auf denen Sensoren ihre Signale an die Verarbeitungseinheiten senden, die ihre Daten analysieren – über ein Netzwerk oder über eine direkte Leitung“, sagte Thierry Kouthon, technischer Produktmanager bei Rambus Security.„Nach dem Signalempfang treffen die Verarbeitungseinheiten Entscheidungen, die das Verhalten des Fahrzeugs beeinflussen oder den Fahrer warnen/benachrichtigen.Im Falle einer Direktverdrahtung können Technologien wie MIPI-A PHY mit Sensoren mit hoher Bandbreite wie Lidar, Radar und Kameras verwendet werden.Heutzutage unterstützt MIPI keine Authentifizierung und Vertraulichkeit, die notwendige Bausteine ​​einer soliden Sicherheitslösung sind.Im Kontext eines Fahrzeugs bleibt die Entscheidung, ob die Hochgeschwindigkeitsverbindung zwischen der Sensoreinheit und der Verarbeitungseinheit durch Authentifizierung und Vertraulichkeit geschützt werden muss, dem Hersteller überlassen.Hersteller, die eine sichere Verbindung durchsetzen wollen, verwenden Netzwerkprotokolle wie Automotive Ethernet.Automotive Ethernet kann mit MACsec (IEEE 802.1AE Standard) geschützt werden.MACsec hat den Vorteil, dass es praktisch ohne Auswirkung auf Leistung oder Latenz mit Leitungsgeschwindigkeit arbeitet.Andere übergeordnete Protokolle sind ebenfalls geeignet, wie z. B. IPsec.Sowohl MACsec als auch IPsec bieten Authentifizierung und Vertraulichkeit.“Fazit Von CAN-Bus zu MIPI hat die Entwicklung von Sensorschnittstellen einen langen Weg zurückgelegt.In Zukunft wird erwartet, dass 5G und V2X auch Teil der Sensorschnittstellen sein werden.V2X sieht Fahrzeuge vor, die miteinander verbunden sind, um die Sicherheit zu erhöhen.Wenn sich derzeit ein Unfall ereignet, beispielsweise 1.000 Meter voraus auf einer Autobahn, können die Fahrer nicht sehen, was vor ihnen passiert, und sie werden nicht in der Lage sein, langsamer zu werden oder rechtzeitig anzuhalten, um Kollisionen zu vermeiden.„Auf unserem Weg in die Welt der vernetzten Autos und V2X werden wir zusätzliche Fähigkeiten benötigen, die über das hinausgehen, was Kameras, Lidar, Radar, IR und Ultraschall heute bieten können“, sagte John Stabenow, Director of Product Engineering bei Siemens EDA.„Um Fahrsicherheit zu erreichen, müssen Autosensoren in der Lage sein, Gesichtserkennung, Handgestenerkennung und mehr durchzuführen, um viele unvorhersehbare Aktionen vor dem Fahrzeug und viele tote Winkel des Fahrzeugs zu bewältigen.Darüber hinaus werden viele neue und kompakte Sensoren entwickelt, um Dinge wie Luftleckagen aus den Reifen über den reinen Reifendruck hinaus sowie die Erkennung der verbleibenden Reifenprofiltiefe zu erkennen.“Mit V2X werden Informationen von Fahrzeugen in der Nähe der Unfallstelle an Fahrzeuge übermittelt, bevor sie die Unfallstelle erreichen.Diese Fahrzeuge werden dann ohne Eingreifen des Fahrers automatisch langsamer, da die intelligenten Fahrzeugsensoren miteinander kommunizieren.Höchstwahrscheinlich wird dies über 5G erreicht, wobei sich die Automobilsensoren wie IoT-Knoten in der Edge-Verarbeitung verhalten.„Die Netzwerktopologie und -architektur für ein Fahrzeug entwickelt sich weiter“, sagte Chua von Cadence.„Wir tendieren zu einer zonalen Vernetzung und Architektur.Die Schnittstellen-/Busauswahl hängt von verschiedenen Faktoren ab, die für den ordnungsgemäßen Betrieb der ECU und des Gateways erforderlich sind.Zu diesen Faktoren gehören die Menge der Datenlast, Latenzanforderungen, Zuverlässigkeit der Datenübertragung usw. Ein zonales Steuergerät verwendet Schnittstellen wie PCIe, MIPI, CAN usw., um sich mit Sensoren oder zonalen Endpunkten zu verbinden.Ethernet kann verwendet werden, um eine Verbindung zwischen einem zonalen Steuergerät und dem zentralen Steuergerät/Gateway herzustellen.Ein V2X-Gateway könnte 5G verwenden, um sich mit der Cloud zu verbinden.Wenn das Fahrzeug verbunden ist, besteht die Möglichkeit, dass Wi-Fi im Fahrzeug Breitbandverbindungen zu Geräten in der Kabine oder um das Fahrzeug herum bereitstellt.“Wir sehen nur einen flüchtigen Eindruck davon, wie das Fahren der Zukunft aussehen wird.Sensortechnologien können so viel für menschliche Fahrer und schließlich für autonomes Fahren tun, und mit der Weiterentwicklung der Technologien werden dem Fahrzeug weitere Funktionen hinzugefügt.Dies ist erst der Anfang, und je mehr Sensoren und Kommunikation hinzugefügt werden, desto mehr Möglichkeiten eröffnen sich weit über das Fahrzeug hinaus.Verwandte große Änderungen für den Innenraum von Autokabinen Neue Elektronik zur Überwachung des Fahrerbewusstseins, Reduzierung von Straßenlärm, um sicherzustellen, dass keine Babys oder Haustiere in heißen Autos zurückgelassen werden.Konkurrierende Auto-Sensor-Fusion-Ansätze Kosten, Datenvolumen und Komplexität bestimmen mehrere Lösungen.Änderungen bei Sensoren und DSPs Die Auswirkungen von Spezialisierung und Kombination.Sensorfusionsherausforderungen in Autos Je mehr Teile des Puzzles für autonome Fahrzeuge in Sicht kommen, desto größer wird die Herausforderung.Name* (Hinweis: Dieser Name wird öffentlich angezeigt)E-Mail* (Wird nicht öffentlich angezeigt)Fortschrittliches Ätzen ist der Schlüssel zu Nanoblatt-FETs;Evolutionspfad für zukünftige Knoten.Von spezifischen Fähigkeiten des Designteams bis hin zu organisatorischen und wirtschaftlichen Auswirkungen – die Umstellung auf maßgeschneidertes Silizium rüttelt die Dinge auf.Neue Speicheransätze und Herausforderungen bei der Skalierung von CMOS weisen auf radikale Veränderungen – und potenziell enorme Verbesserungen – in Halbleiterdesigns hin.Überall mehr Elektronik und mehr Konnektivität schaffen Probleme in Bezug auf Leistung, Leistung, Kosten und Sicherheit.Startup-Finanzierung erreicht 2,9 Mrd. $;Produktions-Onshoring und Fabrikausbau fördern Investitionen in angrenzenden Märkten.Neue Speicheransätze und Herausforderungen bei der Skalierung von CMOS weisen auf radikale Veränderungen – und potenziell enorme Verbesserungen – in Halbleiterdesigns hin.In der Speicherhierarchie gibt es ständig Änderungen, aber wie und wo auf diesen Speicher zugegriffen wird, hat große Auswirkungen.Aber das bedeutet nicht, dass es in absehbarer Zeit zum Mainstream wird.Erweiterung der Analog-Foundry;EDA-Investitionen;112 Startups sammeln über 2,6 Milliarden Dollar.Exponentieller Anstieg ist nicht nachhaltig.Aber wo geht das alles hin?Die Herausforderungen nehmen weiter zu, aber die meisten von ihnen scheinen mit genügend Investitionen überwindbar zu sein.ML/DL erhöht die Designkomplexität am Edge, fügt aber auch neue Optionen zur Verbesserung von Leistung und Leistung hinzu.Die Optimierung des Verhaltens eines Systems kann die PPA verbessern und seine Nutzungsdauer verlängern.