Konkurrierende Auto-Sensor-Fusion-Ansätze

2022-10-22 21:21:19 By : Ms. Sarah Zhu

Kosten, Datenvolumen und Komplexität bestimmen mehrere Lösungen.Da die heutigen Verbrennungsmotoren durch elektrische/elektronische Fahrzeuge ersetzt werden, werden mechanische Systemsensoren durch zahlreiche elektronische Sensoren ersetzt, sowohl für einen effizienten Betrieb als auch für das Erreichen verschiedener Autonomiegrade.Einige dieser neuen Sensoren werden alleine arbeiten, aber viele prominente müssen ihre Ausgänge mit den Ausgängen anderer Sensoren kombinieren – oder „fusionieren“ –, um ihren Wert zu maximieren.Was zu diesem Zeitpunkt nicht offensichtlich ist, ist, wo diese Sensorfusion im Fahrzeug stattfinden wird oder wie genau die Daten kombiniert, sortiert und priorisiert werden.„Es ist klar, dass es heute in Automobilen zu viele Sensordaten und zu wenig Verarbeitungsleistung gibt, und es wird eine Sensorfusion geben“, sagte Andy Jaros, Vizepräsident für IP-Vertrieb und -Marketing bei Flex Logix.„Wie das passieren wird, ist noch in der Entwicklung und wird von den Entscheidungen der Automobilsystemdesigner für jedes Modell abhängen.“Streams von Sensoren wie Kameras, Radar und Lidar können auf verschiedene Weise kombiniert werden, um neue oder zuverlässigere Informationen bereitzustellen.Wo diese Verarbeitung stattfindet, hilft dabei, die Netzwerkarchitektur zu informieren, wirkt sich aber auch darauf aus, wie künstliche Intelligenz (KI) mit den Daten arbeitet.„Es wird erwartet, dass Rohdaten mit Kameras oder anderen Sensoren verschmolzen und dann in eine Wahrnehmungs-Engine geleitet werden, um möglicherweise bessere Ergebnisse zu erzielen“, sagte Willard Tu, Senior Director, Automotive bei Xilinx.Es gibt keine allgemeine Einigkeit darüber, wie dies funktionieren wird, aber es gibt viele Meinungen.„Ehrlich gesagt finde ich es im Moment ein bisschen religiös“, sagte John Swanson, Senior Product Marketing Manager bei Synopsys.Grundlagen der Sensorfusion Sensorfusion ist seit dem großen Schub elektronischer Sensoren vor etwa 10 Jahren in Mode.Die Idee ist, dass man durch Kombinieren der Ergebnisse mehrerer unvollkommener Sensoren eine bessere Gesamtmessung erhalten kann.Eine Betrachtungsweise ist, dass ein Sensor die Schwachstellen eines anderen Sensors überdecken kann.Beispielsweise werden Daten von Beschleunigungsmessern, Gyroskopen und Magnetometern heute kombiniert, um bessere Positions- und Navigationsinformationen zu liefern.„Der Zweck der Sensorfusion [in einem Automobil] besteht darin, das Bewusstsein für das Fahrzeug so zu schärfen, als wäre es ein Mensch, denn Menschen haben Seh-, Hör- und Geruchswahrnehmung“, sagte Thierry Kouthon, technischer Produktmanager, Sicherheit bei Rambus .„Fahrzeuge haben das nicht, also müssen wir es durch etwas ersetzen, das die gleiche Genauigkeit hat.“Bei elektrisch/elektronischen (E/E) Fahrzeugen liegt der Schwerpunkt hauptsächlich auf den sichtbezogenen Sensoren: Kameras, Radar und Lidar.Sie sind bei weitem nicht die einzigen Sensoren in einem Fahrzeug, aber leistungsbezogene Sensoren – Monitore, die sagen, wie die Dinge laufen – funktionieren eher eigenständig.Diese Monitore werden wahrscheinlich in die Elektronik selbst einziehen, obwohl sie sich völlig von den Monitoren unterscheiden werden, die für einen Verbrennungsmotor (ICE) benötigt werden.„Bei Verbrennungsmotoren haben Sie mindestens 15 externe Monitore, die den Motor selbst überwachen“, bemerkte Gal Carmel, General Manager Automotive bei proteanTecs.„Aber in einem elektrifizierten Auto hat man keinen Motor mehr.Sie haben eine Batterie und Sie haben ein Batteriemanagementsystem.Der Trend, den Sie sehen, geht also dahin, all diese Monitore in die Elektronik zu stecken.“Die visuellen Sensoren sind viel komplexer und die Situationen, mit denen sie umgehen müssen – wechselndes Licht, Wetter, eine Vielzahl von interessanten Objekten – bedeuten, dass jeder seine Stärken und Schwächen hat.Die Idee ist, dass man, wenn man sie zusammen verwendet, alle Situationen auf die eine oder andere Weise abdecken kann.Abb. 1: Szenenverständnis & Navigation mittels Sensorfusion.Quelle: SiemensSensorfusion kann im Prinzip auf verschiedene Arten funktionieren.Bei einem Ansatz werden alle Ausgaben von allen Sensoren die ganze Zeit kombiniert, in unterschiedlichen Maßen für unterschiedliche Umstände.In einem anderen Fall stützt sich das System hauptsächlich auf einen Sensor, z. B. die Kamera, es sei denn, Umstände stellen die Qualität der Kameradaten in Frage – wie z. B. schwaches Licht.Die anderen Sensoroptionen fungieren dann als Redundanz, um bei Bedarf einzugreifen.„Wenn Sie sich all diese Sensoren ansehen, ja, sie bieten eine Art Überlappung oder Redundanz, aber sie bieten auch unterschiedliche Fähigkeiten“, sagte Carmel.Es können auch andere Daten wie GPS- und Kartendaten eingespeist werden.Die Position eines Fahrzeugs kann durch GPS bestimmt werden, das mit erkannten Orientierungspunkten im Sichtfeld und den Spurmarkierungen verschmolzen ist, aber sie kann mit Kartendaten abgeglichen werden, um sicherzustellen, dass die berechnete Position sinnvoll ist.„Das kann auch bis hin zur V2X-Konnektivität reichen, also Infrastrukturen wie Ampeln und Bahnübergänge“, sagte Kouthon von Rambus.„Auch andere Autos können mit Ihnen kommunizieren und Ihnen sagen: ‚Vorsicht, der Lkw, den Sie zu überholen versuchen, hat ein anderes Fahrzeug direkt vor sich, das Sie nicht sehen können.'“Es gibt also viele Möglichkeiten, Daten zu fusionieren, und die Qualität dieser Fusion kann ein Unterscheidungsmerkmal sein.Werden alle Sensoren benötigt?Jeder der Sensoren stellt natürlich Kosten dar, daher ist die Verwendung von weniger weniger teuer.Während es derzeit drei Hauptsichtsensoren gibt, gehen die Meinungen darüber auseinander, ob alle drei Bestand haben werden.Die Fähigkeit, von drei auf zwei Sensoren zu wechseln, hängt insbesondere von der Qualität der Sensorfusion und der KI ab.„Wenn genügend Daten vorhanden sind und die KI intelligent genug ist, fällt einer dieser Sensoren aus“, sagt Vikram Patel, Director of Product Marketing bei Infineon.„Wenn diese OEMs nur mit Radar und einer Kamera davonkommen könnten, würden sie es meiner Meinung nach tun.“Die Lidar-Hersteller sehen das natürlich anders.„Diese Leute denken, dass wir nur Lidar und vielleicht Radar oder billiges Radar haben und die Kamera loswerden können“, fügte Patel hinzu.Das Ziel der Sensorfusion auf höchster Ebene ist es, Entscheidungen anhand der bestmöglichen Daten zu treffen.Dies ist entscheidend für Systeme auf hoher Ebene, die Entscheidungen über Leben und Tod treffen müssen – fortschrittliche Fahrerassistenzsysteme (ADAS) oder L4/L5-Autonomiesysteme.Die Qualität der Entscheidung ist das Endspiel.Was das konkret bedeutet, hängt davon ab, wo man sich im Auto befindet.Auf lokaler Ebene – sagen wir in einer Ecke des Autos – kann das bedeuten, zu entscheiden, welche Objekte im Blickfeld sind.Für eine seitlich gerichtete Kamera kann dies bedeuten, potenzielle Fußgänger oder Schilder zu identifizieren.In der Front des Autos muss die Kamera möglicherweise weiter nach vorne sehen und in der Lage sein, Annäherungsgeschwindigkeiten zu berechnen.Auf „globaler“ Ebene muss dies den Bedürfnissen von ADAS und Autonomie dienen.Hier werden Eingaben aus der Umgebung des Fahrzeugs kombiniert, um ein vollständiges Bild der Fahrzeugumgebung zu erstellen.„Alle Messungen, Fußgänger, Objekterkennung, Verständnis der Orientierungspunkte, der Spurmarkierung führen schließlich zu einer einfachen Kollisionszeit“, sagte Carmel.Drei Arten der Verarbeitung Um dies gut zu machen, sind drei verschiedene Arten der Datenverarbeitung erforderlich, die leicht verwechselt werden können.Erstens ist die einfache Verarbeitung von visuellen Daten.Das sind grundlegende Bildverarbeitungsarbeiten wie Farbkonvertierung, Entfernen von Rauschen und Normalisieren von Daten, die alle darauf abzielen, die Qualität der Daten zu verbessern, die im Downstream-Computing verwendet werden.„Jeder Kunde, mit dem ich spreche, spricht davon, die reinen ADC- oder FFT-Rohdaten in etwas intelligenteres oder saubereres umzuwandeln“, sagte Patel von Infineon.„Das Rauschen wurde herausgefiltert, und nur die Spitzen wurden getroffen, und dann verschieben Sie es in das Rohr, das Sie verwenden.“Die nächsten beiden können etwas miteinander verflochten sein.Fusion kombiniert Daten aus verschiedenen Quellen, und maschinelles Lernen (ML) macht die Bilder sinnvoll.Sensorfusion ist nicht ML, und ML ist keine Sensorfusion, genau genommen.Aber Daten können fusioniert werden, bevor sie einer ML-Engine präsentiert werden, oder ML könnte vor der Fusion auf einzelne Datenströme angewendet werden, und dann könnten die ML-Ergebnisse miteinander fusioniert werden.Die Fusionsarchitektur muss auch mit Daten umgehen können, die außerhalb des Fahrzeugs generiert werden.„Die Smart-City-Infrastruktur hat ein ähnliches Problem [wie die interne Automobilsensorfusion]“, sagte David Fritz, Senior Director für Autonome und ADAS bei Siemens EDA.„Auf der einen Seite erkennt es Objekte und klassifiziert sie.Wie bringe ich diese Informationen so in ein Fahrzeug, dass sie leicht konsumiert werden können?Wenn sie die Rohdaten senden, wird die 5G-Bandbreite, die sie verbrauchen, phänomenal sein.Denken Sie an 10.000 Kreuzungen in New York City, die alle Terabytes an Daten gleichzeitig streamen.Es wird das System überschwemmen.Das ist ein Nichtstarter.“„Nehmen wir an, sie finden dafür einen komprimierten Weg“, fuhr er fort.„Dann müssen die Fahrzeuge selbst Rechenleistung hinzufügen, um die Daten zu dekomprimieren.“Wenn externe Quellen Objektmetadaten kommunizieren, mit denen das Fahrzeug nativ arbeiten könnte, würde diese Datenfusion vereinfacht.Abb. 2: Auf der linken Seite sehen Sie ein Szenario, in dem Sensordaten direkt an den zentralen Prozessor geliefert werden, entweder komplett roh oder nach einer geringfügigen Datenbereinigung.Es kann über eine einzelne Verbindung zum Zonencontroller kommen oder direkt zum Zentralprozessor gehen.Auf der rechten Seite werden Sensordaten lokal in der Zone klassifiziert, wobei Metadaten an den zentralen Prozessor gesendet werden.Quelle: Bryon Moyer/Semiconductor EngineeringWenn dies zur Art und Weise wird, wie die Dinge gehandhabt werden, dann würde all diese gemeinsame Nutzung von Objekten eine gewisse Standardisierung der Metadaten erfordern.„Uns sind keine branchenweiten Standardisierungsbewegungen bekannt, obwohl dies unvermeidlich ist“, sagte Fritz.„Es ist sehr wahrscheinlich, dass es von einem De-facto-Standard angetrieben wird, von demjenigen, der zuerst auf den Markt kommt und den größten Marktanteil hat.“Es ist jedoch kein großes Problem zu lösen.„Es gibt eine begrenzte Anzahl von Dingen, für die man tatsächlich standardisierte Metadaten haben muss“, fügte er hinzu.„Und die Datenmenge für jedes davon ist gering.“Wo wird das alles passieren?Angesichts all dieser Rechenarbeit, wo wird sie im Fahrzeug stattfinden?Dies ist eine der Überlegungen, die das Design von Fahrzeugarchitekturen vorantreiben.Die sogenannte „zonale“ Architektur scheint sich als bevorzugter Ansatz durchgesetzt zu haben, auch wenn nicht alle Hersteller mit an Bord sind.„Die Architektur der nächsten Generation ist die zonale Architektur“, sagte Robert Schweiger, Director of Automotive Solutions bei Cadence.„An jeder Ecke eines Autos gibt es einen zonalen Controller, der sich um die Sensoren kümmert, die irgendwo in dieser physischen Region montiert sind.“Die Idee ist, dass ein Controller in einem begrenzten Teil des Autos – sagen wir im vorderen linken Teil – einiges an Arbeit erledigt.Die Ergebnisse dieser Arbeit könnten dann an einen zentralen Computer geliefert werden, wo die lokalen Teile zu einer globalen Ansicht zusammengesetzt werden können.„Wir sehen, dass die zonale Architektur einfach aufgrund der Komplexität entsteht“, sagte Patel.„Es ist einfacher, die Daten in einem Zonenschema zu verwalten und zu verschieben.“Gespräche darüber neigen dazu, sich auf Rohdaten vs. verarbeitete Daten zu konzentrieren, aber es ist nicht ganz so klar.„Der Ausdruck ‚Rohdaten' kann zu großer Verwirrung führen, da verschiedene Personen unterschiedliche Definitionen dessen haben, was Rohdaten sind“, warnte Patel.„Heute sieht man nicht nur die fertig bearbeiteten Objektdaten.Aber Sie werden sehen, dass die Teilverarbeitung abgeschlossen ist und das Ergebnis über die Ethernet-Leitung gesendet wird.“Andere stimmen zu.„Heute ist der größte Teil der Sensorfusion objektorientiert, nicht roh“, bemerkte Tu.„Ein objektorientierter Ansatz erfordert weniger Leistung.Die Rohfusion wird eine komplexere Verarbeitung erfordern, und die Techniken sind neuartig.“Der zonale Ansatz vereinfacht Systeme, indem die Arbeit modular und skalierbar verteilt wird.Beispielsweise kann ein Low-End-Auto zwei Zonen haben, während ein High-End-Fahrzeug sechs oder mehr haben kann.Ein Zonencontroller als gemeinsames Element macht es wahrscheinlicher, dass die Controller-Volumen höher sind – und dass die Kosten unter Kontrolle gehalten werden müssen.„Hier könnte ein Mittelweg herauskommen“, sagte Swanson von Synopsys.„In der zonalen Architektur nehmen Sie also eine gewisse Abstraktionsebene vor, um sie der zentralen Verarbeitungseinheit zu übergeben.“Einige OEMs – insbesondere die neuen, die bei Null anfangen – entscheiden sich möglicherweise für eine Architektur, bei der alles zentral erledigt wird.Aber zumindest haben diese OEMs bisher nicht versucht, einen breiten Markt zu gewinnen, sondern sich stattdessen auf das High-End konzentriert.„Wenn ich ein Tesla bin, baue ich hauptsächlich High-End-Fahrzeuge“, sagte Patel.„Ich interessiere mich nicht wirklich für ein Low-Cost-Auto zu skalieren.GM und VW – sie werden sich darum kümmern.“Er ist nicht der einzige, der diese Trennung sieht.„Es gibt den alten Trend, die traditionellen OEMs, die BMWs, Daimlers und Fords“, sagte Kouthon.„Und da ist der neue Trend – die Aptivs, die Teslas, die Waymos – und sie haben eine dramatisch andere Sicht der Dinge.“Tesla verwendet zum Beispiel eine extrem leistungsfähige Zentraleinheit.„Dieser Chip nimmt alle Kamera-Feeds, alle Ultraschall-Feeds und alle Radar-Feeds auf und verarbeitet sie zentral“, sagte Kouthon.„Ihre Begründung ist, dass wir Redundanz auf der Ebene der Verkabelung zwischen der Zentraleinheit und den Sensoren bereitstellen werden, um die Ausfallwahrscheinlichkeit zu verringern.“Diese Verdrahtungsredundanz spiegelt die proprietäre Arbeit wider, die sie sowohl bei der Datenübermittlung im Fahrzeug als auch bei der Stromversorgung der Elektronik geleistet haben.Durch die Verwendung von Ringarchitekturen kann eine solche Redundanz erreicht werden, ohne die Drähte im Netzwerk buchstäblich zu verdoppeln.Zuverlässigkeit ist natürlich eine große Sache für ein Auto.„Wenn Sie nur einen einzigen zentralen Prozessor verwenden, setzen Sie viel Zuverlässigkeit auf einen Computer“, bemerkte Swanson.Es könnte auch argumentiert werden, dass nicht alle Entscheidungen zentral getroffen werden müssen.„Es gibt wahrscheinlich viele Entscheidungen, die vor Ort getroffen werden können“, sagte Swanson.„Sie brauchen den Supercomputer nicht, um zu steuern, wie oft die Scheibenwischer gehen.“Was kommt in die Zone?Angesichts des zonalen Ansatzes können wir uns nun der Frage stellen, was wo getan wird, obwohl es in der Lieferkette zu einem gewissen Push und Pull durch unterschiedliche Interessen kommen kann.Kamerahersteller können beispielsweise eine Differenzierung wünschen, indem sie selbst eine Klassifizierung vornehmen und dann Objektmetadaten liefern.Zumindest können sie einen Großteil der aufwendigen Bildverarbeitung vor ML und vor Fusion übernehmen.Der zonale Controller könnte jede der lokalen Verarbeitungen implementieren, die die Sensoren selbst nicht durchführen.Das könnte Signalbereinigung sein, es könnte lokales ML sein, oder es könnte lokale Sensorfusion sein.Ein wichtiger Faktor für diese Entscheidung ist die Bandbreite zum Verschieben von Daten.Jede Verarbeitung, die lokal in der Zone durchgeführt wird, würde natürlich die Rohdaten komprimieren.Anstatt rohe Kameradaten an den zentralen Computer zu senden, könnte die Zone Objektmetadaten senden.Der zonale Controller könnte eine anfängliche Klassifizierung der Objekte innerhalb seiner Sicht vornehmen.„Der zonale Controller wird das Gerät sein, das die von diesen Sensoren kommenden Daten vorverarbeitet und übergeordnete Objektdaten an die zentrale Recheneinheit sendet“, sagte Schweiger von Cadence.„Sie können eine Pre-Fusion [dh eine frühe Fusion] im Zonen-Controller durchführen und dann die endgültige Fusion aller vier Zonen-Controller im Zentralcomputer durchführen.Die Vorfusion bietet Ihnen auch den Vorteil, dass die Daten reduziert werden.“Dies korreliert stark mit Entscheidungen darüber, welche Netzwerke verwendet werden, um all diese Daten zu transportieren.Siemens hat mit einem OEM zusammengearbeitet, bei dem verschiedene Setups simuliert wurden.„Wir haben drei Modelle des gesamten Fahrzeugs gemacht“, erklärt Fritz.„Auf einem von ihnen würden wir die rohen Sensordaten über Automotive Ethernet an einen zentralen Computer senden.Der zentrale Computer würde die gesamte Sensorfusion, Objekterkennung, Klassifizierung und Entscheidungsfindung übernehmen.Das zweite, was wir taten, war zu fragen: "Was wäre, wenn wir einen Teil der Sensorberechnung am Rand durchführen würden?"Das reduziert die Netzwerkbandbreite um etwa 40 %.“In diesem Modell hat Siemens eine 3D-Punktwolke von der Edge an den zentralen Computer gesendet.„Die dritte Option war, alles am Rand in der Nähe des Sensors zu machen“, sagte Fritz.„Und dann müssen wir nur noch die Metadaten des Objekts weitergeben – seinen Standort, seine Klassifizierung, seine Bewegungsrichtung und so weiter.Wir haben gesehen, dass im ersten Fall mehr als 10 Gbit/s benötigt werden, um alle rohen Sensordaten zu übertragen“, was weit mehr ist als die 1 Gbit/s, die über das aktuelle Ethernet-Maximum verfügbar sind.„Nur die letzten beiden wurden als machbar erachtet.Wir tendieren zur Objektfusion im Gegensatz zu jeder Art von 3D-Punktwolke.“Dies deutet darauf hin, dass in der Zone einiges an Arbeit umgesetzt werden könnte.Aber wieviel?Ein wichtiger Gesichtspunkt für den zonalen Controller wären die Kosten, die die Menge an schwerer ML-Hardware begrenzen könnten, die zu einem akzeptablen Preispunkt enthalten sein könnte.Das wird ein wichtiger Faktor bei der Aufteilung der Arbeit sein.„Aus wirtschaftlicher Sicht kann man nicht die höchste KI-Leistung in die Zonensteuerung stecken, weil die Siliziumfläche zu groß wäre“, warnt Schweiger."Das bedeutet also, dass Sie eine Mischung haben müssen."Allerdings wird die Art und Weise, wie die Verarbeitung aufgeteilt wird, wahrscheinlich proprietär bleiben, da OEMs versuchen, die beste Kombination aus Sensorfusion und ML in der Zone und in der Mitte zu finden.„Wie sie bestimmte Aufgaben in ihrem Fahrzeug verteilen, ist vielleicht das Geheimrezept des OEM“, sagt Schweiger.Oder einfach gesagt, keine Einheitsgröße passt für alle.„Es hängt alles vom Hersteller und seiner Philosophie ab“, fügte Tom Wong, Marketingleiter, Design IP bei Cadence, hinzu.„Und die Rechenressourcen, die ihnen im Kern zur Verfügung stehen, und die Menge an Energie, die sie zu verbrauchen bereit sind.“Eine vorübergehende Frage?Dennoch gibt es eine hartnäckige Überzeugung, dass die besten Entscheidungen ohne Beschränkungen getroffen werden können, wenn alle Rohdaten zur Berechnung zum zentralen Computer gebracht werden.Durch das Komprimieren der anfänglichen Rohdaten opfert die gesamte Vorverarbeitung einige Informationen zugunsten der Reduzierung der Bandbreite.Es ist vielleicht nicht optimal, aber vorerst gut genug, zumal die Fahrzeuge vorerst bandbreitenbegrenzt sein werden.Die Nutzung der Zonen für Sensorfusion und ML wäre aus dieser Sicht eine Übergangssache, bis wir alle Daten effektiver ins Zentrum bringen können.„Aktuell entwickeln die Unternehmen noch sehr smarte Sensormodule“, sagt Schweiger.„Aber später wird sich das ändern und sich in Richtung der zentralen Recheneinheiten verschieben.“Wann dies geschehen wird, ist unklar, denn selbst wenn wir schnellere Netzwerke entwerfen, fügen wir auch mehr Daten hinzu.Das deutet darauf hin, dass die Zone einige dieser grundlegenden Computer für eine lange Zeit beherbergen könnte.Wenn dieser Übergang stattfindet, bedeutet dies jedoch nicht unbedingt das Ende der zonalen Architektur.Viele Aufgaben, die nichts mit Sensorfusion oder ML zu tun haben, können immer noch lokal durchgeführt werden, und die zonale Architektur bietet eine effiziente und bequeme Möglichkeit, dies zu tun.„Vielleicht gibt es Dinge, bei denen man keine Datenfusion braucht“, sagt Schweiger.„Sie verarbeiten einfach etwas vor, wie die Strahlformung eines Radarsensors.Es ist eine individuelle Sache für diesen einen Sensor, und es beeinflusst nicht die Entscheidungen.“Trotz der Bemühungen der OEMs, die beste Mischung aus Sensorfusion und ML-Computing zwischen der Zone und dem Zentrum bereitzustellen, wird es im Laufe der Zeit zum Zentrum migrieren.Das würde beispielsweise dagegen sprechen, eine Klassifizierung in einer Kamera am Rande durchzuführen, und es könnte zu einem Gerangel zwischen dem führen, was die Kamerahersteller ihrer Meinung nach zur Differenzierung benötigen, und dem, was die OEMs tun möchten.„Wenn die OEMs das alles geklärt haben, wird alles skalierbarer und wartungsfreundlicher“, sagt Schweiger.„Es kann eine sauberere Softwarearchitektur haben, weil man nicht 100 ECUs flashen muss.“Kouthon stimmte zu.„Indem Sie ein Netzwerk haben, in dem Sie alles auf den zentralen Computer bringen, ist es viel einfacher, Over-the-Air-Updates durchzuführen, da Sie jedes Mal nur ein paar Dinge aktualisieren müssen“, sagte er.Vorerst dürften verschiedene OEMs die Grenze zwischen den Zonen und dem Zentrum an unterschiedlichen Stellen ziehen.Flexibilität wird wichtig sein, sei es in der Software oder in der programmierbaren Hardware.„Wir haben Argumente für beide Seiten der vielen Fragen rund um die Sensorfusion gehört“, sagte Jaros von Flex Logix.„Wir glauben, dass die Antwort darin besteht, eFPGAs zu verwenden, um Systemdesignern einen Chip zu ermöglichen, der beide Szenarien unterstützt, wobei die Fusion in der Nähe des Sensors oder in einer zentralen Verarbeitungseinheit erfolgt.“Dies wird jedoch ein langsamer Prozess sein, wenn man bedenkt, wie Fahrzeuge konstruiert sind.„Solche Lösungen werden um 2026 auf dem Markt verfügbar sein“, sagte Fritz.Jeder muss beobachten, wie sich dies entwickelt, und bereit sein, seine Strategien bei Bedarf zu ändern.Name* (Hinweis: Dieser Name wird öffentlich angezeigt)E-Mail* (Wird nicht öffentlich angezeigt)Fortschrittliches Ätzen ist der Schlüssel zu Nanoblatt-FETs;Evolutionspfad für zukünftige Knoten.Von spezifischen Fähigkeiten des Designteams bis hin zu organisatorischen und wirtschaftlichen Auswirkungen – die Umstellung auf maßgeschneidertes Silizium rüttelt die Dinge auf.Neue Speicheransätze und Herausforderungen bei der Skalierung von CMOS weisen auf radikale Veränderungen – und potenziell enorme Verbesserungen – in Halbleiterdesigns hin.Überall mehr Elektronik und mehr Konnektivität schaffen Probleme in Bezug auf Leistung, Leistung, Kosten und Sicherheit.Startup-Finanzierung erreicht 2,9 Mrd. $;Produktions-Onshoring und Fabrikausbau fördern Investitionen in angrenzenden Märkten.Wer macht was in Next-Gen-Chips und wann wird damit gerechnet?Fortschrittliches Ätzen ist der Schlüssel zu Nanoblatt-FETs;Evolutionspfad für zukünftige Knoten.Steht in Verbindung mit der aufkommenden Ära domänenspezifischer Architekturen ein großer Umbruch in der EDA-Branche bevor?Die Wissenschaft denkt das jedenfalls.Die Herstellbarkeit erreicht ein ausreichendes Niveau, um mit Flip-Chip-BGA und 2,5D zu konkurrieren.Von spezifischen Fähigkeiten des Designteams bis hin zu organisatorischen und wirtschaftlichen Auswirkungen – die Umstellung auf maßgeschneidertes Silizium rüttelt die Dinge auf.Neue Speicheransätze und Herausforderungen bei der Skalierung von CMOS weisen auf radikale Veränderungen – und potenziell enorme Verbesserungen – in Halbleiterdesigns hin.Es werden Schritte unternommen, um Probleme zu minimieren, aber ihre Umsetzung wird Jahre dauern.In der Speicherhierarchie gibt es ständig Änderungen, aber wie und wo auf diesen Speicher zugegriffen wird, hat große Auswirkungen.