
NVIDIA Jetson Xavier / Orin Industrie PC
NVIDIA Jetson Xavier / Orin Industrie PCs – KI-Optimierte Plattformen für Edge Computing
Unsere NVIDIA Jetson Xavier und Orin Industrie PCs sind ideal für leistungsstarke KI-Anwendungen und Edge-Computing. Sie bieten außergewöhnliche GPU-Performance für Aufgaben wie maschinelles Lernen, Computer Vision und autonome Systeme. Dank der NVIDIA Jetson-Plattform ermöglichen sie Echtzeit-Analysen und Inferenz direkt vor Ort.
Hauptmerkmale unserer NVIDIA Jetson Xavier / Orin Industrie PCs:
- KI-Rechenleistung: NVIDIA GPUs für fortschrittliche KI und Inferenz.
- Optimiert für Edge Computing: Schnelle Datenverarbeitung vor Ort für autonome Systeme und IoT.
- Robustes Design: Geeignet für anspruchsvolle industrielle Umgebungen.
- Flexible Konnektivität: GMSL2-Kameras, Ethernet, USB und 4G/5G.
- Lüfterlos: Zuverlässig und wartungsarm.
Unsere NVIDIA Jetson Industrie PCs bieten die ideale Lösung für KI-intensive industrielle Anwendungen.
- NVIDIA® Jetson Orin™ NX oder Xavier™ NX SOM mit JetPack Toolkit
- 4x IEEE 802.3bt PoE++ GbE-Ports
- 2x Mini-PCIe-Sockel für WLAN/GNSS/NVMe/CAN-Module
- 1x 3042/3052 M.2 B Key-Sockel für mobile 4G/5G-Kommunikation
- Gleichstromeingang, 8 bis 35 V, mit integrierter Zündsteuerung
- MIL-STD-810H und EN 50155 Zertifizierung
- NVIDIA® Jetson Orin™ NX / Xavier™ NX SOM mit JetPack
- Unterstützung von 4x GMSL2-Fahrzeugkameras über FAKRA Z-Steckverbinder
- 1x 10GBASE-T 10Gb, 1x 1GBASE-T 1Gb Ethernet-Port
- 2x Mini-PCIe-Sockel für WLAN/GNSS/NVMe/CAN-Module
- 1x M.2 3042/ 3052 B Key-Sockel für mobile 4G/5G-Kommunikation
- 1x isolierter CAN 2.0, 1x COM-Port und 1x GPS PPS-Eingang
- NVIDIA® Jetson AGX Orin™ SoM mit JetPack 5.1.1
- 32/64 GB LPDDR5 RAM
- 6x Gigabit/2.5G Ethernet via RJ45 oder M12
- 1x M.2 2280 NVME SSD
- 2x mini-PCIe für Erweiterungen wie WLAN, CAN etc.
- Betriebstemperatur -25°C bis +70°C (Lüfterlos)
- 8-48 V Weitbereichseingang mit Zündstromkontrolle
- Mit nur 297g (345g inkl. Gehäuse) extrem niedriges Gewicht
- Bis zu 100 TOPS GPU Rechenleistung dank NVIDIA® Jetson Orin™ NX
- 2x GMSL2 Kamera Ports, CAN Bus, GPIO und UART
- 2x GbE, 2x USB 3.2, 1x DisplayPort, 1x M.2 2230 SSD
- Eingebautes UART und CAN-Interface für Controller
- Unterstützt 4G/5G Kommunikation via micro SIM Socket
- Angetrieben durch NVIDIA® Jetson AGX Orin™ SoM
- IP66 wasser- und staubdicht
- Unterstützt 8x GMSL2-Automobilkameras über FAKRA Z-Anschlüsse
- 4x PoE+ GbE und 1x 10GBASE-T über M12 X-codierte Anschlüsse
- 2x isolierter CAN 2.0, 1x RS232 und 1x isolierter RS485 über M12 A-codierte Anschlüsse
- Angetrieben durch NVIDIA® Jetson AGX Orin™ SoM
- IP66 wasser- und staubdicht
- 4x PoE+ GbE und 1x 10GBASE-T über M12 X-codierte Anschlüsse
- 2x isolierter CAN 2.0, 1x RS232 und 1x isolierter RS485 über M12 A-codierte Anschlüsse
- NVIDIA Orin NX oder Orin Nano CPU mit JetPack
- 10.1" Touchscreen mit 1920 x 1200p Auflösung
- IP66 wasser- und staubgeschützt
- 6x GMSL2 Ports oder 4x M12 PoE+ GbE Ports
- 1x CAN FD und 1x RS232 via wasserdichtem M12 Port
- 8-35V Weitbereichseingang mit Zündstromsteuerung
- -25 °C - 60 °C lüfterlose Betriebstemperatur
- Angetrieben von NVIDIA® Orin™ NX oder Orin™ Nano SoM, gebündelt mit JetPack
- IP66 wasserdicht und staubdicht
- Lüfterloser Betrieb von -25°C bis 70°C (Kein Throttling bei 70°C im 20W TDP-Modus)
- 6x GMSL2-Automobilkameras über FAKRA-Z-Steckverbinder (NRU-161V-AWP)
- 4x PoE+ GbE über M12 X-codierte Steckverbinder (NRU-162S-AWP)
- 1x CAN FD und 1x RS232 über M12 A-codierte Steckverbinder
- Niedriges Profil mit den Maßen 225 x 136 x 55 mm
- 8V bis 35V DC-Eingang mit integriertem Zündungssteuerung
- Angetrieben von einem NVIDIA® Jetson Orin™ NX-SoM in Kombination mit JetPack 5.1.1
- Bis zu 16 GB LPDDR5 RAM
- Bis zu 100 TOPS an Rechenleistung zur KI-Inferenzierung
- 4x PoE+ oder 6x USB 3.2 zur Anbindung von Kameras
- RS-232/485 Port
- M.2 2242 M-Key NVME Slot
- Betriebstemperaturbereich von -25 °C bis 60 °C, lüfterlos
Paralleles Rechnen auf Grafikprozessoren
Die zur Bildverarbeitung benötigten Recheneinzelschritte sind relativ einfach und sie lassen sich gut parallelisieren. GPUs sind weniger komplex als CPUs aufgebaut, aber Hunderte von ihnen analysieren die Bilderflut von den angeschlossenen Kameras gleichzeitig. Das herkömmliche Rechnen durch lineares Durchlaufen von Algorithmen auf einem oder auf wenigen CPUs wird durch paralleles Rechnen auf sehr vielen GPUs stark beschleunigt.
Die Rechenleistungen für die Bildverarbeitung erreichen mit dem GPU-Konzept kaum vorstellbare Dimensionen. Wir sprechen von Größenordnungen von mehreren 100 Billionen Operationen pro Sekunde (eine Billion (1012) Floating Point Operations (FLOPs) sind ein TeraFLOP). Übrigens lassen sich auch andere Aufgaben als die Bildverarbeitung parallelisieren. „Graphical Computing“ kommt auch bei rechenintensiven Aufgaben wie z.B. der wissenschaftlichen Modellierung und bei Simulationen zum Einsatz.
Speziell in Fahrzeugen sind die Hunderte von TeraFLOPS oder kurz „TOPS“ nicht zentral in einem Rechenzentrum zu erbringen, sondern natürlich vor Ort, z.B. in einem fahrenden Fahrzeug: man spricht vom „Edge Computing“. Dabei ist die Strommenge, die in einem Fahrzeug zur Verfügung steht, begrenzt. Es kommt somit nicht nur auf hohe Rechenleistungen für Bildverarbeitung und künstlich intelligente Entscheidungsfindung (Inferenz) an, diese Rechenleistungen müssen zudem mit möglichst wenig elektrische Energie auskommen.
CUDA
Für parallele Berechnungen auf Hunderten bis Tausenden GPUs entwickelte NVIDIA einen „Programmier-Baukasten“ namens CUDA (Compute Unified Device Architecture), der neben einem Compiler und einer Laufzeitumgebung eine große Auswahl an Bibliotheken zur Verfügung stellt. Die Programmierer können mit bewährten Sprachen wie C, C++, Fortran, Python oder Matlab darauf zugreifen. Die GPU-Prozessorkerne und CUDA, also Hard- und Software, sind von NVIDIA aufeinander abgestimmt. CUDA-fähige GPU-Prozessoren heißen daher auch „CUDA-Kerne“.
Orin vs. Xavier
Die Geräte der Jetson Orin-Klasse sind Weiterentwicklungen der Xavier-Klasse. Mit doppelter Speicherkapazität und einem 1,4-fach größeren Arbeitsspeicher erreicht die Orin-Klasse 3,3-fach mehr Leistung als die Xavier-Klasse – gemessen an der Geschwindigkeit der Entscheidungsfindung (angegeben in „Inferenzen pro Sekunde“). Die NVIDIA-Entwickler arbeiten daran, die Orin-Hardware sogar 5-mal schneller als Xavier-Geräte laufen zu lassen.
Folgende Tabelle zeigt, welche Technologien noch dazu beitragen, Orin vor allem beim Deep-Learning leistungsfähiger zu machen als Xavier:
Orin | Xavier |
Integrierter NVIDIA® Deep Learning Accelerator (DLA) als „Hardware-Beschleunigung“ mittels effizienterer Verarbeitung von Daten. | Separate Tensor-Kern-Einheit für Deep-Learning-Operationen, was zu einer höheren Latenz und einem höheren Energieverbrauch führt. |
Bis zu 12 ARM v8.2-kompatible CPU-Kerne und bis zu 2048 NVIDIA CUDA-Kerne: höhere Parallelität und Verarbeitungskapazität. | Acht ARM v8.2-kompatible CPU-Kerne und 512 NVIDIA® CUDA-Kerne. |
Jetson Anwendungen
Typische Anwendungsgebiete sind naheliegenderweise solche, die hohe Rechenleitungen erfordern und bei denen sich die Rechenschritte parallelisieren lassen, z.B.:
- in der Bildverarbeitung,
- beim maschinellen Lernen,
- beim Deep Learning (die eigentliche Künstliche Intelligenz),
- in der wissenschaftlichen Modellierung etwa der Wetter- und Klimaentwicklung,
- in Algorithmen für Strömungssimulationen
- bei der Bildsynthese für Filme und Computerspiele (Rendern).
Die Success Stories auf https://resources.nvidia.com/l/en-us-jetson-success-stories?ncid=no-ncid vermitteln einen Eindruck von der enormen Anwendungsvielfalt von NVIDIA Jetson Geräten in Industrie, Wissenschaft, Medizin und vielen weiteren Gebieten.