Zum Hauptinhalt springen
< Alle Themen
Drucken


Knowledge Base
Branchen & Lösungen

KI & Bildverarbeitung am Edge – GPU-Computer für Machine Vision

Künstliche Intelligenz verändert die industrielle Bildverarbeitung grundlegend. Klassische regelbasierte Algorithmen, die Schwellenwerte und geometrische Muster vergleichen, stoßen bei komplexen Prüfaufgaben an ihre Grenzen – etwa bei variierenden Oberflächen, organischen Formen oder schwer definierbaren Fehlern. Deep-Learning-Modelle hingegen lernen direkt aus Beispielbildern und erkennen Defekte, die für herkömmliche Systeme unsichtbar bleiben. [1]

Doch KI-basierte Bildverarbeitung stellt extreme Anforderungen an die Hardware: Neuronale Netze benötigen Milliarden von Rechenoperationen pro Sekunde, während die Ergebnisse in Millisekunden vorliegen müssen. Eine Cloud-Verarbeitung scheitert hier an Latenz, Bandbreite und Datenschutzanforderungen. Die Lösung ist Edge AI – die KI-Inferenz direkt an der Produktionslinie, auf robusten GPU-Computern, die für den industriellen Dauerbetrieb ausgelegt sind. Dieser Artikel zeigt Ihnen, welche Hardware-Plattformen sich für KI-gestützte Machine Vision eignen, welche Leistungskennzahlen entscheidend sind und worauf Sie bei der Systemauswahl achten sollten.

Edge AI vs. Cloud – Warum lokale Verarbeitung überlegen ist

Bei der industriellen Bildverarbeitung mit KI stehen zwei Architekturansätze zur Verfügung: Die Cloud-Variante sendet Bilddaten an einen zentralen Server, der die Inferenz durchführt und das Ergebnis zurückschickt. Die Edge-Variante führt die gesamte Verarbeitung direkt am Aufstellort der Kameras durch – auf einem lokalen GPU-Computer.

Für industrielle Machine Vision ist Edge AI in den meisten Szenarien die überlegene Architektur. Die Gründe:

  • Latenz: Edge-Systeme liefern Ergebnisse in unter 10 ms. Cloud-basierte Lösungen benötigen allein für die Netzwerkübertragung 50–200 ms – zu langsam für Inline-Inspektion bei hohen Taktzeiten. [2]
  • Bandbreite: Eine einzelne 5-Megapixel-Industriekamera erzeugt bei 30 fps rund 450 MB/s Rohdaten. Vier Kameras übersteigen jede praxistaugliche Uplink-Kapazität.
  • Datenhoheit: Produktionsbilder verlassen das Firmennetzwerk nicht. Das vereinfacht die DSGVO-Konformität und schützt vor dem Abfluss sensibler Fertigungsdaten.
  • Verfügbarkeit: Edge-Systeme arbeiten unabhängig von der Internetverbindung. Ein Netzwerkausfall stoppt nicht die Qualitätskontrolle.
  • Determinismus: Lokale Verarbeitung liefert konstante Reaktionszeiten – ohne Schwankungen durch Netzwerklast oder Cloud-Auslastung.

Anwendungen: KI-Bildverarbeitung in der Industrie

Deep-Learning-basierte Bildverarbeitung ersetzt oder ergänzt klassische Machine-Vision-Systeme in einer wachsenden Zahl industrieller Anwendungen. Die folgenden sechs Szenarien zeigen, wo KI am Edge den größten Mehrwert liefert.

1. Automatische optische Inspektion (AOI) in der Qualitätskontrolle

AOI-Systeme prüfen Bauteile, Leiterplatten oder Oberflächen auf Defekte – von Rissen über Lötfehler bis zu Verunreinigungen. Klassische Algorithmen benötigen für jeden Fehlertyp eigene Regeln, die bei neuen Produkten aufwendig angepasst werden müssen. KI-Modelle (z. B. auf Basis von Convolutional Neural Networks) lernen Fehlermuster direkt aus annotierten Bildern und generalisieren auf unbekannte Defektvarianten. Bei Taktzeiten unter einer Sekunde sind GPU-beschleunigte Inferenzsysteme mit NVIDIA TensorRT die erste Wahl. [3]

2. OCR und Codeerfassung

Die automatische Erkennung von Schriftzeichen (OCR), Barcodes, QR-Codes und Data-Matrix-Codes ist in der Logistik und Verpackungsindustrie allgegenwärtig. KI-basierte OCR übertrifft regelbasierte Systeme besonders bei beschädigten, verzerrten oder schlecht beleuchteten Codes. Auf Jetson-basierten Edge-Systemen lassen sich OCR-Modelle mit NVIDIA DeepStream in Multi-Kamera-Pipelines integrieren und mehrere Förderbänder parallel überwachen.

3. Defekterkennung und Anomalie-Detektion

Nicht jeder Defekt lässt sich vorab definieren. Anomalie-Detektions-Modelle lernen ausschließlich aus Gutteilen und erkennen jede Abweichung vom Normalzustand – auch völlig neue, bisher unbekannte Fehlerbilder. Dieser Ansatz eignet sich besonders für hochwertige Bauteile mit geringer Fehlerquote, bei denen nur wenige Defektbilder zum Training zur Verfügung stehen. Die benötigte Rechenleistung liegt typisch bei 50–100 TOPS (INT8). [4]

4. 3D-Vermessung und Profilometrie

3D-Kameras und Laserscanner erzeugen Punktwolken oder Höhenprofile, aus denen KI-Modelle Maßabweichungen, Verzug oder Volumenfehler berechnen. Die Datenmenge ist bei 3D-Verfahren deutlich höher als bei 2D-Inspektion – eine einzelne 3D-Kamera erzeugt leicht 1 GB/s an Rohdaten. GPU-Computer mit PCIe-Erweiterungsslots für Framegrabber und hohem Speicherdurchsatz sind hier essenziell.

5. Objektklassifikation und Sortierung

In der Lebensmittelindustrie, Recyclingbranche und Pharmazie sortieren KI-Systeme Objekte nach Typ, Qualität, Farbe oder Reifegrad. Die Herausforderung: Natürliche Produkte variieren stark in Form und Erscheinungsbild. Deep-Learning-Klassifikatoren erreichen hier Genauigkeiten von über 99 % – vorausgesetzt, die Inferenz-Hardware liefert Ergebnisse schnell genug für die Sortiergeschwindigkeit des Fließbandes. [5]

6. Echtzeit-Videoanalyse und Multi-Stream-Verarbeitung

Sicherheitsüberwachung, Verkehrsanalyse und Prozessüberwachung erfordern die gleichzeitige Auswertung mehrerer Videoströme. NVIDIA-Jetson-basierte Systeme mit DeepStream-SDK verarbeiten bis zu 22 parallele 1080p-Streams und führen dabei Objekterkennung, Tracking und Verhaltensanalyse durch. Die Integration von GMSL2-Kameraschnittstellen ermöglicht den Einsatz automobiltauglicher Kameras mit hoher Dynamik und Zuverlässigkeit. [6]

Hardware-Grundlagen: GPU, Jetson, TOPS und Kameraschnittstellen

Die Wahl der richtigen Hardware hängt von vier Faktoren ab: KI-Rechenleistung, Kameraanbindung, Erweiterbarkeit und Umgebungsbedingungen. Im Folgenden erläutern wir die entscheidenden Komponenten.

KI-Rechenleistung: TOPS als Maßstab

Die Leistungsfähigkeit eines Edge-KI-Systems wird in TOPS (Tera Operations Per Second) gemessen – das sind Billionen Ganzzahl-Rechenoperationen pro Sekunde bei INT8-Präzision. Je höher der TOPS-Wert, desto komplexere Modelle können in kürzerer Zeit ausgeführt werden. Für die Orientierung:

  • 20–40 TOPS: Einfache Klassifikation, OCR, Einzelkamera-Inspektion (z. B. Jetson Orin Nano)
  • 100–275 TOPS: Multi-Kamera-Inspektion, Anomalie-Detektion, Videoanalyse (z. B. Jetson Orin NX / AGX Orin)
  • 500–1.500+ TOPS: 3D-Vermessung, hochauflösende Multi-Modell-Pipelines, Training am Edge (z. B. duale NVIDIA RTX GPUs)

NVIDIA RTX GPUs vs. Jetson-Module

NVIDIA bietet zwei Plattformen für Edge-KI: Desktop-GPUs der RTX-Serie (Ada Lovelace, Ampere) und Jetson-System-on-Modules (Orin-Generation). Die Wahl hängt vom Leistungsbedarf und den Randbedingungen ab:

  • RTX-GPUs (z. B. RTX 6000E Ada, RTX A6000): Maximale Rechenleistung mit bis zu 1.457 TOPS (INT8), 48 GB VRAM, Unterstützung für sehr große Modelle. Benötigen dedizierte GPU-Computer mit 350-W-Kühlung pro Karte. [7]
  • Jetson AGX Orin: Bis zu 275 TOPS (INT8) bei nur 15–60 W Leistungsaufnahme. Ideal für kompakte, lüfterlose Systeme. Integrierter Hardware-Videodecoder für Multi-Stream-Analyse. [8]
  • Jetson Orin NX: Bis zu 100 TOPS (INT8) im ultrakompakten Formfaktor. Optimales Verhältnis aus Leistung und Energieeffizienz für Einzelkamera- bis Vier-Kamera-Szenarien.

Kameraschnittstellen für Machine Vision

Die Anbindung der Kameras bestimmt die erreichbare Auflösung, Framerate und Kabellänge. In der industriellen Bildverarbeitung haben sich vier Schnittstellen etabliert:

  • GigE Vision: Standard-Ethernet-basiert, Kabellängen bis 100 m, Power over Ethernet (PoE+) für Stromversorgung über das Datenkabel. Bandbreite 1 Gbit/s (GigE) bis 10 Gbit/s (10GigE). Idealer Standard für Multi-Kamera-Setups in Fertigungslinien. [9]
  • USB3 Vision: Bandbreite bis 5 Gbit/s, Plug-and-Play, maximale Kabellänge 5 m. Geeignet für kompakte Inspektionsstationen mit kurzen Kabelwegen. [10]
  • GMSL2: Automotive-Standard für serielle Kameraanbindung. Kabellängen bis 15 m, integrierte Fehlerkorrektur, optimiert für Vibrationsumgebungen. Auf Jetson-Plattformen native Treiberunterstützung.
  • CoaXPress (CXP): Höchste Bandbreite (bis 50 Gbit/s bei CXP-12), für Hochgeschwindigkeitskameras und Line-Scan-Anwendungen. Benötigt dedizierte PCIe-Framegrabber.

PCIe-Erweiterung und Framegrabber

Viele Machine-Vision-Anwendungen erfordern zusätzliche PCIe-Karten – etwa Framegrabber für CoaXPress- oder Camera-Link-Kameras, 10-GbE-Netzwerkkarten für Multi-Kamera-GigE-Systeme oder zusätzliche GPUs. Industrie-PCs mit offenen PCIe-Slots (Gen3 oder Gen4) bieten diese Flexibilität. Der Neousys Nuvo-10208GC stellt neben den zwei GPU-Slots zusätzlich drei PCIe-x8-Erweiterungsslots zur Verfügung – ausreichend für komplexe Multi-Kamera-Konfigurationen mit Framegrabber und Netzwerkkarte.

Software-Frameworks: TensorRT, OpenVINO und DeepStream

Die Hardware allein reicht nicht – optimierte Inferenz-Frameworks sind entscheidend für die Echtzeit-Performance:

  • NVIDIA TensorRT: Optimiert trainierte Modelle (PyTorch, TensorFlow, ONNX) für NVIDIA-GPUs und Jetson-Module. Layer-Fusion, Precision Calibration (FP32 → FP16/INT8) und Kernel-Autotuning reduzieren die Inferenzzeit um den Faktor 2–5 gegenüber dem unoptimiertem Modell. [11]
  • NVIDIA DeepStream SDK: End-to-End-Framework für Multi-Stream-Videoanalyse auf Jetson und dGPU. Integriert Videodecoding, Vorverarbeitung, Inferenz und Tracking in einer GPU-beschleunigten Pipeline.
  • Intel OpenVINO: KI-Toolkit für Intel-CPUs, -GPUs und -NPUs. Optimal für Szenarien, in denen Intel-basierte Industrie-PCs ohne dedizierte NVIDIA-GPU eingesetzt werden. [12]
  • ONNX Runtime: Universelles Inferenz-Framework, das Modelle im ONNX-Format auf verschiedenen Beschleunigern ausführt – herstellerunabhängig und als Brücke zwischen Trainings- und Deployment-Plattformen.

Empfohlene Neousys-Hardware für KI-Bildverarbeitung

OMTEC vertreibt als autorisierter Neousys-Partner GPU-Computer und Jetson-Systeme, die speziell für KI-basierte Bildverarbeitung in rauen Industrieumgebungen entwickelt wurden. Die folgenden Plattformen decken das gesamte Leistungsspektrum ab.

Neousys Nuvo-10208GC – Dual-GPU-Flaggschiff für maximale Inferenzleistung

Der Nuvo-10208GC ist die leistungsstärkste Edge-KI-Plattform im Neousys-Portfolio. Er kombiniert Intel-Prozessoren der 14./13./12. Generation (bis 24 Kerne, 32 Threads) mit zwei NVIDIA RTX-GPUs der 350-W-Klasse – darunter die langzeitverfügbaren RTX 6000E Ada und RTX 5000E Ada. Mit bis zu 1.457 TOPS (INT8) pro GPU eignet sich das System für die anspruchsvollsten Inferenzaufgaben: 3D-Vermessung, hochauflösende Multi-Kamera-Inspektion und parallele Modellausführung. Das patentierte GPU-Locking-Bracket sichert die schweren Grafikkarten vibrationsfest im Gehäuse. [7]

  • CPU: Intel 14./13./12. Gen Core i (LGA1700), bis 24 Kerne/32 Threads
  • GPU: 2x NVIDIA RTX 350 W (RTX 6000E Ada, RTX 5000E Ada, RTX A6000 u. a.)
  • KI-Leistung: Bis 2.914 TOPS (INT8, Dual-GPU) / 182 TFLOPS (FP32)
  • RAM: DDR5-4800, bis 64 GB
  • Netzwerk: 3x 2,5GbE/GbE, optional 10GbE
  • I/O: 6x USB 3.2 Gen2, 3x PCIe-x8 (Gen3) Erweiterungsslots, M.2 NVMe Gen4x4
  • Temperatur: –25 °C bis +60 °C
  • Shop: omtec.de/Nuvo-10208GC

Neousys NRU-220S – Jetson AGX Orin für Multi-Stream-Videoanalyse

Der NRU-220S ist ein lüfterloser KI-Computer auf Basis des NVIDIA Jetson AGX Orin Moduls (32 GB oder 64 GB). Mit 2.048 CUDA-Cores, 64 Tensor-Cores und zwei NVDLA-2.0-Engines liefert er bis zu 275 TOPS (INT8) – bei einer Leistungsaufnahme von nur 15–60 W. Der integrierte Hardware-Videodecoder verarbeitet bis zu 22 parallele 1080p-Streams. Vier PoE+-Ports versorgen IP-Kameras direkt mit Strom und Daten, zwei 2,5-GbE-Ports stellen die Backend-Anbindung sicher. Zwei 2,5”-SSD-Einschübe ermöglichen lokale Videoarchivierung. [6]

  • SoM: NVIDIA Jetson AGX Orin 32 GB / 64 GB
  • KI-Leistung: Bis 275 TOPS (INT8, sparse)
  • Kamera: 4x GigE PoE+ (je 25,5 W), 2x 2,5GbE
  • Speicher: 2x 2,5” SATA SSD, M.2 NVMe
  • Erweiterung: 2x Mini-PCIe, 1x M.2 B-Key (4G/5G)
  • Bauform: Lüfterlos, robustes Aluminiumgehäuse
  • Shop: omtec.de/NRU-220S

Neousys NRU-161V-AWP – IP66 Jetson Orin NX für den Außeneinsatz

Der NRU-161V-AWP basiert auf dem NVIDIA Jetson Orin NX und liefert bis zu 100 TOPS (INT8) in einem IP66-geschützten, wasserdichten Gehäuse. Sechs GMSL2-Kameraeingänge mit FAKRA-Z-Steckern verbinden automobiltaugliche Kameras (IMX390, ISX031, IMX490) direkt mit dem System. Das extrem kompakte Format von nur 199 x 136 x 49 mm erlaubt die Montage in beengten Installationsumgebungen. Der weite Eingangsspannungsbereich (8–35 V DC) und der erweiterte Temperaturbereich (–25 bis +70 °C) machen das System ideal für Outdoor-Inspektion, mobile Robotik und Fahrzeuganwendungen. [8]

  • SoM: NVIDIA Jetson Orin NX / Orin Nano
  • KI-Leistung: Bis 100 TOPS (INT8)
  • Kamera: 6x GMSL2 (FAKRA-Z), vorkonfigurierte Treiber
  • Netzwerk: 1x GbE, 1x CAN FD, 1x RS-232
  • Schutzklasse: IP66 (staub- und wasserdicht)
  • Maße: 199 x 136 x 49 mm
  • Temperatur: –25 °C bis +70 °C
  • Shop: omtec.de/NRU-161V-AWP

Vergleichstabelle: GPU-Computer für KI-Bildverarbeitung

Modell KI-Plattform TOPS (INT8) Kameras Temperatur Einsatzbereich
Nuvo-10208GC 2x NVIDIA RTX 350 W + Intel 14. Gen Bis 2.914 3x 2,5GbE + 6x USB3.2 + 3x PCIe-Slot –25 bis +60 °C 3D-Vermessung, Multi-GPU-Inferenz, hochauflösende Inspektion
NRU-220S Jetson AGX Orin (64 GB) Bis 275 4x GigE PoE+ + 2x 2,5GbE Lüfterlos Multi-Stream-Video, KI-NVR, Prozessüberwachung
NRU-161V-AWP Jetson Orin NX Bis 100 6x GMSL2 (FAKRA-Z) –25 bis +70 °C IP66 Outdoor, mobile Robotik, Fahrzeuganwendungen

Praxisbeispiele

Szenario 1: AOI in der Elektronikfertigung

Ein Elektronikfertiger prüft Leiterplatten nach dem Lötprozess auf Defekte – fehlende Bauteile, kalte Lötstellen, Kurzschlüsse und falsche Bauteilausrichtung. Die Taktzeit beträgt 0,8 Sekunden pro Board. Bisherige regelbasierte AOI-Systeme erzeugten bei neuen Leiterplatten-Layouts eine Pseudo-Fehlerrate von über 15 %, die manuelle Nachkontrolle erforderte.

Lösung: Ein Neousys Nuvo-10208GC mit zwei NVIDIA RTX A6000-GPUs verarbeitet die Bilder von acht GigE-Vision-Kameras (angebunden über einen PCIe-basierten 10-GbE-Netzwerkadapter). Ein YOLOv8-basiertes Defekterkennungsmodell, optimiert mit TensorRT für INT8-Inferenz, klassifiziert jeden erkannten Defekt in unter 50 ms. Die verbleibende Taktzeit nutzt das System für 3D-Koplanaritiätsprüfung der BGA-Anschlüsse.

Ergebnis: Die Pseudo-Fehlerrate sank auf unter 2 %, die Erkennungsrate stieg auf über 99,7 %. Der manuelle Nachprüfaufwand reduzierte sich erheblich.

Szenario 2: KI-gestützte Obstsortierer-Anlage

Ein Lebensmittelverarbeiter sortiert Äpfel nach Qualitätsklasse, Farbe, Größe und Oberflächendefekten. Die Sortieranlage verarbeitet 10 Tonnen pro Stunde über vier parallele Kanäle. Klassische Farbsortierung konnte Druckstellen und innere Fäulnis nicht zuverlässig erkennen.

Lösung: Vier Neousys NRU-220S Systeme – eines pro Kanal – verarbeiten jeweils fünf Kameraströme (RGB + NIR für Innendefekte). Ein Multi-Task-Modell auf Jetson AGX Orin klassifiziert jeden Apfel simultan nach sechs Kriterien. NVIDIA DeepStream orchestriert die Kamera-Pipelines, während ein TensorRT-optimiertes EfficientNet-Modell die Klassifikation bei über 200 Objekten pro Sekunde durchführt. Die PoE+-Ports versorgen die Kameras direkt mit Strom.

Ergebnis: Die Sortiergenauigkeit stieg auf über 99 %, innere Defekte werden zuverlässig erkannt und die Anlage arbeitet vollautomatisch im 24/7-Betrieb.

Standards und Normen für Machine Vision

Die industrielle Bildverarbeitung basiert auf einer Reihe international anerkannter Standards, die Interoperabilität, Messbarkeit und Zuverlässigkeit sicherstellen.

GigE Vision

GigE Vision ist der dominierende Schnittstellenstandard für industrielle Kameras. Er wurde 2006 von der AIA (Association for Advancing Automation) veröffentlicht und definiert, wie Kameras Bilddaten und Steuerungsbefehle über Standard-Ethernet-Netzwerke austauschen. Der Standard unterstützt Geschwindigkeiten von 1 GbE bis 10 GbE, Kabellängen bis 100 m und Multi-Kamera-Setups ohne spezielle Framegrabber. [9]

USB3 Vision

USB3 Vision wurde 2013 von der AIA eingeführt und nutzt USB 3.0 (5 Gbit/s) als physische Schicht. Der Standard bietet Plug-and-Play-Funktionalität und Stromversorgung über das Datenkabel. Die maximale Kabellänge von 5 m begrenzt den Einsatz auf kompakte Inspektionsstationen. [10]

GenICam

GenICam (Generic Interface for Cameras) ist der herstellerunabhängige Programmierstandard für Industriekameras. Er stellt eine einheitliche API bereit, die unabhängig von der physischen Schnittstelle (GigE Vision, USB3 Vision, CoaXPress, Camera Link) funktioniert. Softwareentwickler programmieren damit einmalig gegen eine Abstraktion und können Kameras verschiedener Hersteller und Schnittstellen austauschen, ohne den Code zu ändern. GenICam ist ein EMVA-Standard (European Machine Vision Association). [13]

EMVA 1288

EMVA 1288 definiert standardisierte Messverfahren für die Sensorcharakterisierung von Machine-Vision-Kameras. Der Standard ermöglicht den objektiven Vergleich von Kameras anhand physikalisch exakt gemessener Parameter: Quanteneffizienz, Dunkelrauschen, Dynamikbereich, Linearität und zeitliche Stabilität. Die aktuelle Version 4.0 ist seit 2021 in Kraft und wurde 2024 als ISO 24942 zum internationalen Standard erhoben. [14]

Häufig gestellte Fragen (FAQ)

Welche GPU-Computer eignen sich für KI-basierte Bildverarbeitung am Edge?

Für KI-Bildverarbeitung am Edge eignen sich GPU-Computer mit NVIDIA RTX-Grafikkarten oder Jetson-Modulen. Der Neousys Nuvo-10208GC unterstützt zwei 350-W-GPUs und liefert bis zu 1.457 TOPS (INT8) pro Karte für komplexe Deep-Learning-Inferenz. Für kompaktere Szenarien bietet die NRU-Serie mit Jetson AGX Orin bis zu 275 TOPS bei nur 60 W Leistungsaufnahme.

Was ist der Unterschied zwischen Edge-KI und Cloud-KI bei der Bildverarbeitung?

Edge-KI verarbeitet Bilddaten direkt am Entstehungsort – ohne Daten in die Cloud zu senden. Die Vorteile: Latenzen unter 10 ms statt 50–200 ms, volle Datenhoheit (DSGVO-konform), Unabhängigkeit von Internetverbindung und Bandbreite sowie deterministische Reaktionszeiten für Echtzeit-Anwendungen wie Qualitätskontrolle bei hohen Taktzeiten.

Wie viele Kameras kann ein Edge-KI-System gleichzeitig verarbeiten?

Die Kameraanzahl hängt von Auflösung, Framerate und Modellkomplexität ab. Der Neousys NRU-220S verarbeitet bis zu 22 Streams in 1080p gleichzeitig. Über GigE-Vision-Kameras mit PoE+ können je nach System 4 bis 6 Kameras direkt angeschlossen werden. Über PCIe-Framegrabber oder 10-GbE-Netzwerkadapter lassen sich weitere Kameras integrieren.

Welche Software-Frameworks werden für Edge-KI-Bildverarbeitung eingesetzt?

Auf NVIDIA-GPU-Systemen kommt NVIDIA TensorRT zum Einsatz – es optimiert trainierte Modelle für minimale Latenz und maximalen Durchsatz. Auf Jetson-Plattformen wird zusätzlich NVIDIA DeepStream für Multi-Stream-Videoanalyse genutzt. Für Intel-basierte Systeme bietet Intel OpenVINO KI-Beschleunigung auf CPU und integrierter GPU. Beide Frameworks unterstützen ONNX als universelles Austauschformat.

Was bedeutet TOPS und wie viel TOPS brauche ich für Machine Vision?

TOPS steht für Tera Operations Per Second und misst die KI-Rechenleistung bei ganzzahliger Präzision (INT8). Für einfache Klassifikationsaufgaben reichen 20–40 TOPS (z. B. Jetson Orin Nano). Multi-Kamera-Inspektion mit Deep Learning erfordert 100–275 TOPS (Jetson AGX Orin). Komplexe 3D-Vermessung oder Echtzeit-Defekterkennung bei hohen Taktzeiten benötigt 500+ TOPS (duale RTX-GPUs).

Quellen und Referenzen

  • [1] Deep Learning für industrielle Bildverarbeitung – VDMA Machine Vision Marktbericht 2024 – vdma.org
  • [2] Edge AI vs. Cloud: Latenzvergleich für Echtzeit-Inferenz – Promwad Engineering – promwad.com
  • [3] TensorRT für industrielle Deep-Learning-Inferenz-Pipelines – LearnOpenCV – learnopencv.com
  • [4] Anomaly Detection in Manufacturing – MDPI Electronics 2025 – mdpi.com
  • [5] Real-Time Object Recognition on Edge Computing Devices – MDPI Applied Sciences 2025 – mdpi.com
  • [6] Neousys NRU-220S – Jetson AGX Orin AI NVR Datenblatt – neousys-tech.com
  • [7] Neousys Nuvo-10208GC – Dual RTX GPU Edge AI Platform Datenblatt – neousys-tech.com
  • [8] Neousys NRU-161V-AWP – IP66 Jetson Orin NX Datenblatt – neousys-tech.com
  • [9] GigE Vision Standard – AIA (Association for Advancing Automation) – automate.org
  • [10] USB3 Vision Standard – AIA – wikipedia.org
  • [11] NVIDIA TensorRT: Accelerating Deep Learning Inference – nvidia.com
  • [12] Intel OpenVINO Toolkit – openvino.ai
  • [13] GenICam – Generic Interface for Cameras – EMVA – emva.org
  • [14] EMVA 1288 Standard for Characterization of Image Sensors and Cameras – emva.org

Auf einen Blick

2.914

TOPS (INT8) – Nuvo-10208GC Dual-GPU

275

TOPS (INT8) – NRU-220S Jetson AGX Orin

< 10 ms

Inferenzlatenz am Edge

22

parallele 1080p-Streams (NRU-220S)

GPU-Computer für KI im Shop →

Beratung anfordern

Sie planen ein Machine-Vision-Projekt mit KI-Unterstützung? Unsere Experten beraten Sie bei der Auswahl der richtigen GPU- oder Jetson-Plattform.

Kontakt aufnehmen →

Nach oben scrollen
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.