FAQ
Häufig gestellte Fragen

FAQ - Häufig gestellte Fragen

Hier pflegen wir eine Übersicht zu häufig gestellten Fragen rund um unsere Produkte und unser Unternehmen.

Doch damit nicht genug! Wir möchten, dass Ihnen auch keine Fragen aus verwandten Fachbereichen – wie Stereovision, 3D-Kameras, 3D-Tiefenmessung oder Machine Vision – offen bleiben.

Sollten Sie eine spezielle Frage vermissen, kontaktieren Sie uns.

Inhaltsverzeichnis

1. Grundlegende Fragen zum Thema Stereovision

In den Humanwissenschaften ist Stereovision oder stereoskopisches Sehen die Fähigkeit, durch Bildvergleiche mit beiden Augen einen räumlichen Seheindruck zu erhalten. Beim Betrachten eines Objekts schaut jedes Auge aus einem anderen Winkel. Jedes Auge filtert die Informationen und sendet sie an das Gehirn, wo beide visuellen Eindrücke zu einem zusammengesetzten Bild verarbeitet werden. So wird unsere dreidimensionale Tiefenwahrnehmung erzeugt.

Stereovision für die maschinelle Bildverarbeitung ahmt die menschliche Tiefenwahrnehmung nach. Mit einer Stereokamera werden zwei Bilder synchron aufgenommen und verglichen. Die Abstandsinformation zwischen der Kamera und dem beobachteten Objekt geht bei der Aufnahme eines Bildes mit einer herkömmlichen Kamera normalerweise verloren. Eben diese Tiefeninformation kann durch mehrere Bilder, die aus verschiedenen bekannten Kamerarichtungen aufgenommen wurden mithilfe von Stereo Matching wiedergewonnen werden. (siehe Stereo Matching)

Stereo Matching ist das in der Computer Vision angewandte Verfahren zum Vergleich von Stereobildern. Die Verfahren basiert auf dem Auffinden aller Pixel in den Stereobildern, welche dem gleichen 3D-Punkt in der aufgenommenen Szene entsprechen.

Um 3-dimensionale Punkte zu erhalten, muss, nachdem alle Entsprechungen gefunden wurden, eine Triangulation berechnet werden. Hierbei muss die intrinsische und extrinsische Geometrie der Kameras und ihre Kalibrierung berücksichtigt werden.

Mit SceneScan von Nerian wird dieser Prozess auf einem FPGA durchgeführt, wodurch der Berechnungsprozess um ein Vielfaches beschleunigt wird und eine 3D-Messung in Echtzeit möglich ist! (siehe auch: Wie funktioniert SceneScan?)

Im Zusammenhang mit Stereovision und der Auswertung von Tiefenbildern ist die Disparität der Versatz der Positionen, die ein Objekt auf zwei verschiedenen Bildebenen einnimmt.

Bleiben wir beim Beispiel des menschlichen Sehens, so befinden sich unsere Augen an unterschiedlichen seitlichen Positionen, was zu zwei leicht unterschiedlichen Bildwahrnehmungen führt. So sehen wir mit dem linken Auge mehr von der linken Seite eines Objekts, während wir mit dem rechten Auge mehr von der rechten Seite sehen. Dieser Positionsunterschied wird als Disparität bezeichnet. Das können Sie selbst überprüfen, wenn Sie z.B. ein Auge schließen und ein Objekt anschauen. Dann schließen Sie Ihr Auge, während Sie das andere Auge öffnen. Sie werden sehen, dass das Objekt an einer etwas anderen Position erkannt wird. Je näher ein Objekt ist, desto größer ist die Differenz.

Zur Bestimmung der Disparität bei der maschinellen Bildverarbeitung nutzt das Stereo Matching den Vergleich aller übereinstimmenden Pixelspalten.

Der Disparitätsbereich in der Stereovision gibt den überlappenden Bildbereich an, der nach Pixelkorrespondenzen durchsucht wird. Je größerer der Disparitätsbreich gewählt wird, desto genauer werden die Messergebnisse. Ein großer Disparitätsbereich verursacht jedoch eine hohe Rechenlast und senkt damit die erreichbare Bildrate.

Die Auswahl eines kleinen Disparitätsbereiches eignet sich für Hochgeschwindigkeitsmessanwendungen, wohingegen die Auswahl eines großen Disparitätsbereichs für Messungen im Nahbereich und bei hoher Genauigkeitsanforderung geeignet ist. Dennoch erhöht ein größerer Disparitätsbereich den ungültigen linken Bereich, in dem das Kamerabild nicht mehr verglichen werden kann. Mit SceneScan bieten wir einen konfigurierbaren Disparitätsbereich von 32 bis 256 Pixel an. Wir empfehlen die folgenden Kombinationen von Auflösung, Disparitätsbereich und Bildfrequenz:
Modell Disparitäts- Bildauflösung
bereich 640 × 480 800 × 592 1024 × 768 1600 × 1200 2016 × 1536
SceneScan 64 Pixel 45 Fps 30 Fps n/a n/a n/a
Monochrom 128 Pixel 30 Fps 20 Fps n/a n/a n/a
SceneScan Pro 128 Pixel 135 Fps 90 Fps 55 Fps 22 Fps 13 Fps
Monochrom 256 Pixel 75 Fps 53 Fps 34 Fps 12 Fps 7 Fps
SceneScan Pro 128 Pixel 80 Fps 53 Fps 32 Fps 13 Fps 8 Fps
Farbe 256 Pixel 72 Fps 49 Fps 32 Fps 12 Fps 7 Fps

Disparität ist die sichtbare Verschiebung von Pixeln in einem Stereobildpaar (siehe Was ist Disparität?). Die Disparitätskarte wird aus diesem Bildpaar berechnet und enthält die Tiefeninformation jedes aufgezeichneten Pixels. Strukturell handelt es sich um ein 2D-Bild, so dass viele 2D-Bildverarbeitungsalgorithmen anwendbar sind.
Im Gegensatz dazu liefert eine 3D-Punktewolke 3D-Koordinaten für jedes Pixel, was tatsächliche 3D-Messungen ermöglicht. Dennoch erfordert die 3D-Ausgabe komplexere Algorithmen und mehr Daten als Disparitätskarten, was zu einer langsameren Bildverarbeitung führt.
Für schnellere Ergebnisse sollte die Arbeit mit Disparitätskarten gegenüber 3D-Punktwolken bevorzugt werden.

2. Fragen zur Scarlet 3D-Tiefenkamera und dem SceneScan 3D-Tiefensensor

SceneScan und SceneScan Pro sind eingebettete Bildverarbeitungssysteme für Echtzeit-Stereo Matching. SceneScan wird an eine spezielle Stereokamera oder zwei industrielle USB3-Vision-Kameras angeschlossen, die an unterschiedlichen Betrachtungspositionen montiert sind. Beide Kameras schauen jedoch in die selbe Richtung.

SceneScan sendet Triggersignale aus, um stereoskopische Bildpaare von den angeschlossenen Kameras synchron zu erfassen. Durch Korrelation der Bilddaten beider Kameras auf dem integrierten FPGA kann SceneScan auf die Tiefe der beobachteten Szene schließen. Die berechnete Tiefenkarte wird über Gigabit-Ethernet an einen angeschlossenen Computer oder ein anderes eingebettetes System übertragen. SceneScan erfasst bis zu 135 Bilder pro Sekunde und ermöglicht dadurch Tiefenmessungen in Echtzeit.

Unsere Scarlet 3D-Tiefenkamera funktioniert nach dem selben Prinzip, vereinigt jedoch eine 3D-Stereokamera und Bildverarbeitung in einem Gerät. Ein besonders leistungsfähiger FPGA erlaubt eine Verarbeitungsleistung von bis zu 120 fps, über 70 Millionen 3D-Punkte pro Sekunde und das bei einer Auflösung von bis zu 5 Megapixeln.

Im Gegensatz zu herkömmlichen 3D-Sensorlösungen arbeiten unsere Sensoren passiv. Das bedeutet, dass für die Durchführung von Messungen kein Licht emittiert werden muss. Dies macht unsere Stereovisionlösungen besonders robust gegenüber den Beleuchtungsbedingungen und ermöglicht Messungen über große Entfernungen, den Einsatz mehrerer Sensoren mit überlappendem Sichtfeld und eine flexible Konfiguration des Systems für verschiedene Messbereiche.

Darüber hinaus liefern wir schnellere, höher auflösende und qualitativ hochwertigere Tiefenkarten, da wir die hohen Rechenkapazitäten eines FPGA nutzen und hochwertige Bildsensoren verwenden können. Da die gesamte Bildverarbeitung in SceneScan durchgeführt wird, entfällt auch die Rechenlast auf dem Host-PC.

Unser großer Vorteil im Vergleich zu LiDARs ist, dass wir eine viel höhere vertikale Auflösung haben (typische LiDARs messen nur in bis zu 64 Zeilen). In einigen Anwendungen kann dies dazu führen, dass Objekte mit einer geringen Höhe nicht erkannt werden.

  • Geringerer Stromverbrauch
  • Kleinere Größe
  • Schnellere Ergebnisse und zuverlässigere Taktung, da kein anderes Betriebssystem oder Software um Ressourcen konkurrieren

SceneScan und Scarlet liefern die Ergebnisse des Stereo-Abgleichs in Form einer Disparitätskarte aus der Perspektive der linken Kamera. Die Disparitätskarte oder auch disparity map ordnet jedem Pixel im linken Kamerabild ein entsprechendes Pixel im rechten Kamerabild zu. Da beide Bilder zuvor entzerrt wurden, um einer idealen Stereokamera-Geometrie zu entsprechen, sollten sich die entsprechenden Pixel nur in ihren horizontalen Koordinaten unterscheiden. Die Disparitätskarte kodiert also nur eine horizontale Koordinatendifferenz. Zusätzlich wird auch das linke Kamerabild ausgegeben. Auch 3D-Punktewolken sind möglich.

Es existieren zwei verschiedene Modelle: SceneScan und SceneScan Pro. Beide Modelle bieten die gleiche Funktionalität. SceneScan Pro verfügt jedoch im Vergleich zu SceneScan über eine deutlich höhere Rechenleistung. Das bedeutet, dass SceneScan Pro ein ankommendes Eingangs-Stereobild wesentlich schneller verarbeiten kann als SceneScan.

Dank der zusätzlichen Rechenleistung ist SceneScan Pro auch in der Lage, höhere Bildauflösungen, Farbbilder und größere Disparitätsbereiche zu verarbeiten. Aufgrund dieser Vorteile kann SceneScan Pro eine höhere Messgenauigkeit als SceneScan erreichen.

Einen kurzen Vergleich zwischen den beiden 3D-Sensorgeräten finden Sie auf der SceneScan-Produktseite.

Einen detaillierten Vergleich der erreichbaren Bildraten bei verschiedenen Bildauflösungen und Disparitätsbereichen finden Sie hier.

Ja, Sie können SceneScan auch ohne unsere hauseigene Stereokamera erwerben. Sie benötigen für die Verwendung jedoch eine Form der Stereokamerakonfiguration. Daher müssen Sie Kameras von Drittanbietern erwerben, sofern keine vorhanden sind. Empfehlungen zu Kameras finden Sie unter „Kann ich Kameras von Drittanbietern verwenden?“

Die maximal erreichbare Bildrate hängt von der Bildgröße und dem konfigurierten Disparitätsbereich ab. Die folgende Tabelle enthält eine Liste der empfohlenen Konfigurationen. Dies ist nur eine Teilmenge des verfügbaren Konfigurationsraums. Unterschiedliche Bildauflösungen und Disparitätsbereiche können verwendet werden, um spezifische Anwendungsanforderungen zu erfüllen.

Für Scarlet

 Bildauflösung
Disparitätsbereich832 × 6081024 × 7681216 × 10242432 × 2048
256 Pixel120 Fps84 Fps55 Fps15 Fps
512 Pixeln/an/a38 Fps11 Fps

 

Für SceneScan und SceneScan Pro:

ModellDisparitäts-Bildauflösung
 bereich640 × 480800 × 5921024 × 7681600 × 12002016 × 1536
SceneScan64 Pixel45 Fps30 Fpsn/an/an/a
Monochrom128 Pixel30 Fps20 Fpsn/an/an/a
SceneScan Pro128 Pixel135 Fps90 Fps55 Fps22 Fps13 Fps
Monochrom256 Pixel75 Fps53 Fps34 Fps12 Fps7 Fps
SceneScan Pro128 Pixel80 Fps53 Fps32 Fps13 Fps8 Fps
Farbe256 Pixel72 Fps49 Fps32 Fps12 Fps7 Fps

3. Vor der Verwendung: Funktionen, Machbarkeit, Verwendung

SceneScan und Scarlet werden über eine Webschnittstelle konfiguriert, die durch Eingabe der IP-Adresse in Ihren Browser erreicht werden kann. Wenn das System gerade erst angeschlossen wurde, dauert es einige Sekunden, bis auf die Webschnittstelle zugegriffen werden kann. Für die Verwendung der Webschnittstelle benötigen Sie einen Browser mit Unterstützung für HTML 5. Bitte verwenden Sie eine aktuelle Version eines der gängigsten Browser, wie z. B. Chrome, Firefox, Safari oder Edge.

Alternativ können viele Parameter der Software über die mitgelieferte API angepasst werden. Bitte beachten Sie die API-Dokumentation und die mitgelieferten Beispiele.

Im Falle von SceneScan order Scarlet erfolgt die Ausgabe der Tiefenkarte aus der Sicht der linken Kamera. Der graue Bereich oder ungültige linke Rand auf der Tiefenkarte ist also der Teil, in dem keine Bilddetails der rechten Kamera für den Stereoabgleich zur Verfügung stehen. Der Streifen nimmt mit größerem Disparitätsbereich zu.

Verschiedene Farbkodierungsschemata können über die Dropdown-Liste unterhalb des Vorschaubereichs ausgewählt werden. Auf der rechten Seite wird eine Farbskala angezeigt, die Informationen über die Zuordnung zwischen Farben und Disparitätswerten liefert. Die möglichen Farbschemata sind:

  • Rot/Blau: Ein Farbverlauf von Rot nach Blau, wobei rote Farbtöne hohen Disparitäten und blaue Farbtöne niedrigen Disparitäten entsprechen. Ungültige Disparitäten werden in Schwarz dargestellt.
  • Regenbogen: Ein Regenbogen-Farbschema mit niedrigen Wellenlängen, die hohen Disparitäten entsprechen, und hohen Wellenlängen, die niedrigen Disparitäten entsprechen. Ungültige Disparitäten werden in Grau dargestellt.
  • Rohe Daten: Die Rohdaten der Disparitäten ohne Farbcodierung. Die Pixelintensität entspricht der ganzzahligen Komponente der gemessenen Disparität. Ungültige Disparitäten werden in Weiß dargestellt.

Der SceneScan 3D-Tiefensensor kann jeweils nur an eine Karminkamera angeschlossen werden. Für Messungen mit zwei Stereokameras benötigen Sie jeweils ein SceneScan-Gerät. Außerdem sollte jedes System an eine eigene Ethernet-Schnittstelle angeschlossen werden, um Probleme beim Netzwerkdurchsatz zu vermeiden.

Theoretisch gibt es keine obere Bereichsgrenze für Stereovision und Tiefenmessung. Die Messgenauigkeit nimmt jedoch ungefähr quadratisch mit der gemessenen Entfernung ab. Wie schnell diese Verringerung der Genauigkeit eintritt, hängt von der Basisbreite der Kameras und den verwendeten Objektiven ab. Daher ist die richtige Kamerakonfiguraton in Übereinstimmung mit Ihrer individuellen Anwendung die wichtigste Frage für eine optimale Messleistung.

SceneScan unterstützt Graustufen- und Farb-USB3Vision-Kameras.
Wir empfehlen die Verwendung unserer Karmin3-Kamera oder Kameras von einem unserer verifizierten Hersteller, die derzeit The Imaging Source, FLIR (ehemals PointGrey) und Basler sind.

Weitere Empfehlungen zur Kameraauswahl:

  • Sony Pregius-Sensoren werden bevorzugt
  • Global Shutter
  • Monochrom

Wir bieten auch maßgefertigte Systeme für Ihre individuelle Anwendung an – bitte kontaktieren Sie uns.

Ja! Sie können unsere Open-Source-C++-API auf unserer Website für Vision-Software-Releases herunterladen. Die API ist kompatibel mit OpenCV und mit PCL (Point Cloud Library), kann aber auch eigenständig verwendet werden. Sie finden die API und die Dokumentation als kostenlosen Download auf unserer Website. Wir unterstützen auch ROS. (http://wiki.ros.org/nerian_stereo)

Zusätzlich bieten wir eine Python API bei unseren Softwaredownloads an.

Wir unterstützen OpenCV, ROS, PCL, Matrox MIL, Halcon und mehr.

Windows, Linux x86 und ARM werden unterstützt.

Wir bieten ein GenTL-Modul an, das mit der Image Acquisition Toolbox von Matlab verwendet werden kann. Ein kurzes Matlab-Beispiel ist dem Software-Download beigefügt.

Wir sind nicht in der Lage, den in unseren Produkten implementierten FPGA-Prozessor zu ändern, aber wir erlauben die Lizenzierung unseres IP-Cores an Dritte. Dies erlaubt Ihnen, jede kompatible FPGA-Hardware zu wählen. Die Integration des IP-Cores in ein Gesamtsystem erfordert jedoch FPGA-Entwicklungs-Know-how

Es geht nicht um die Geschwindigkeit, sondern um die Stabilität des Systems. Um gute Ergebnisse zu erhalten, sollten die von den Kameras erfassten Bilddaten wenig Bewegungsunschärfe enthalten. Bewegungsunschärfe kann durch eine Verkürzung der Belichtungszeit der Kamera reduziert werden. Über die Kameraeinstellungen haben Sie die volle Kontrolle über die Belichtungszeit. In hellen Umgebungen können Sie sehr kurze Belichtungszeiten einstellen, ohne die Bildqualität zu beeinträchtigen.

Unsere Karmin3 Stereokamera uns unser SceneScan Stereovisionsensor sind nicht wasserdicht. Wir können aber zusätzliche Kameragehäuse für zwei einzelne USB3-Vision Kameras  anbieten. Auf diese Weise sind wir in der Lage, zumindest die Kameras mit Schutzart IP66 oder IP67 zu liefern.

Unsere Scarlet 3D-Tiefenkamera bietet die IP67 Schutzklasse, solange die Objektivfenster montiert sind.

Wir hatten bereits Kunden, die unsere Systeme für Unterwasseranwendungen eingesetzt haben. In diesen Fällen wurden die Gehäuse von den Kunden gebaut. Dieses Bild zeigt zum Beispiel ein autonomes Unterwasserfahrzeug, das vom Michigan Tech Research Institute gebaut wurde:

https://twitter.com/nerian_vision/status/1031496344005947393/photo/1

Es ist möglich, das System nachts zu benutzen, aber Sie benötigen eine Lichtquelle. Dies kann auch ein Infrarotlicht sein, wenn sichtbares Licht keine Option ist.

4. Stereovision im Einsatz: technische Antworten

Die Latenzzeit hängt von der gewählten Konfiguration ab.

In der Regel ist sie:

die Zeit zwischen zwei Bildern + ca. 9 ms

bis ein verarbeiteter Frame vollständig vom Host-Computer empfangen wird.

Bei Bedarf bieten wir exakte Latenzmessungen für bevorzugte Konfigurationen an, kontaktieren Sie uns einfach.

Für den Weißabgleich können Sie verschiedene Voreinstellungen oder einen automatischen Modus wählen.
Es sollten Fix-Fokus-Objektive verwendet werden, da eine Änderung des Fokus bei allen Objektiven die Brennweite leicht verändert. Da die Kameras exakt kalibriert sind, darf die Brennweite danach nicht mehr verändert werden.

Sie können die 3D-Punktewolke als PLY-Dateien speichern, die z.B. mit MeshLab oder CloudCompare betrachtet werden können. Sie können dies mit unserer NVCom-Anwendung tun, wenn Sie das „3D“-Symbol markieren. Sie können auch unsere API verwenden, um PLY-Dateien mit der Methode Reconstruct3D::writePlyFile() zu schreiben.

Jedes Paar aus entzerrtem linken Kamerabild und Disparitätskarte, das von SceneScan übertragen wird, enthält auch einen Zeitstempel und eine Sequenznummer. Der Zeitstempel wird mit einer Genauigkeit im Mikrosekundenbereich gemessen und entweder auf den Zeitpunkt gesetzt, zu dem ein Kamera-Triggersignal erzeugt wurde, oder auf den Zeitpunkt, zu dem ein Bild von den Kameras empfangen wurde. Zusätzlich bieten wir verschiedene Optionen zur Uhrzeitsynchronisation an. Die bevorzugte Option ist PTP. (= Precision Time Protocol)

Sie können die Bildrate erhöhen, wenn Sie die Auflösung verringern. Dies kann durch Beschneiden des Bildes in einem beliebigen Seitenverhältnis erfolgen. Beachten Sie dabei bitte immer die folgenden Empfehlungen zu Bildraten und Auflösung:
Modell Disparitäts- Bildauflösung
bereich 640 × 480 800 × 592 1024 × 768 1600 × 1200 2016 × 1536
SceneScan 64 Pixel 45 Fps 30 Fps n/a n/a n/a
Monochrom 128 Pixel 30 Fps 20 Fps n/a n/a n/a
SceneScan Pro 128 Pixel 135 Fps 90 Fps 55 Fps 22 Fps 13 Fps
Monochrom 256 Pixel 75 Fps 53 Fps 34 Fps 12 Fps 7 Fps
SceneScan Pro 128 Pixel 80 Fps 53 Fps 32 Fps 13 Fps 8 Fps
Farbe 256 Pixel 72 Fps 49 Fps1 32 Fps1 12 Fps2 7 Fps
1 Horizontale Auflösung ist 32 Pixel kleiner. 2 Horizontale Auflösung ist 64 Pixel kleiner.
Für Scarlet:
Bildauflösung
Disparitätsbereich 832 × 608 1024 × 768 1216 × 1024 2432 × 2048
256 Pixel 120 Fps 84 Fps 55 Fps 15 Fps
512 Pixel n/a n/a 38 Fps 11 Fps

Es gibt keinen Kompromiss zwischen Bildrate und maximal messbarer Enfernung. Der eigentliche Kompromiss besteht zwischen Bildauflösung und Bildrate. Die Bildauflösung hat keinen Einfluss auf die Tiefenauflösung (wenn der Disparitätsbereich gleich gehalten wird).

Für Stereovision ist es sehr wichtig, dass die Kameras präzise kalibriert sind und dass es nach der Kalibrierung keine mechanischen Bewegungen gibt. Winzige Verformungen können sonst die Kalibrierung stark beeinträchtigen und die Ergebnisse der Bildverarbeitung stören.

Aus diesem Grund haben wir die automatische Rekalibrierungsfunktion implementiert. Diese verfolgt die Kamerakalibrierung zur Laufzeit und aktualisiert sie kontinuierlich. Damit dies funktioniert, überwacht die Software natürliche Landmarken, die die Kamera identifiziert. Auf unserem Kanal gibt es ein älteres YouTube-Video (von unserem Vorgängersystem SP1), das diese Technologie demonstriert:

https://www.youtube.com/watch?v=2QGnOwfQKYo

Die automatische Rekalibrierung passt nur die kritischsten Kalibrierungsparameter an. Es ist daher immer noch notwendig, eine vollständige manuelle Kalibrierung durchzuführen. In der Standardkonfiguration von SceneScan passt die automatische Rekalibrierung die Kalibrierungsparameter ca. alle 2 Minuten an, kann aber auch aggressiver konfiguriert werden.

Wenn Sie unseren IP-Core verwenden möchten, ist die Autokalibrierung nicht im FPGA implementiert. Wir führen diesen Schritt in Software auf einer ARM-CPU durch (die Teil des von uns verwendeten Zynq SoCs ist, aber Sie könnten auch eine separate CPU verwenden). Der Quellcode für die Autokalibrierung wird mit der IP-Core-Lizenz geliefert.

Mit unserem System ist es möglich, die Auswirkungen des Flackerns zu reduzieren, indem die Bildfrequenz auf ein Vielfaches der Stromnetzfrequenz (z.B. 50Hz) eingestellt wird. So sollten 50 oder 25 fps ohne Flackern funktionieren. Bei LEDs haben wir festgestellt, dass einige Lichter flackern und andere nicht.

Wir haben einen automatischen Belichtungsalgorithmus implementiert, um die Belichtungs- und Verstärkungseinstellungen schnell an unterschiedliche Lichtverhältnisse anzupassen. Dies ist also kein Problem.

5. Fragen zur Karmin 3D-Kameraserie

Unsere Karmin 3D-Kameras imitieren die menschliche Tiefenwahrnehmung (siehe Stereovision). Zwei einzelne Kamerasensoren nehmen entsprechend dem von SceneScan ausgegebenen Triggersignal zwei Teilbilder synchron auf. Um zuverlässige Ergebnisse zu erhalten, ist es wichtig, dass die Kameras immer entsprechend kalibriert sind.

SceneScan ist unser Hauptprodukt, und unsere Karmin-Kameras wurden ausschließlich für die Sensoranforderungen dieses Systems entwickelt. Aufgrund der technischen Koordination unterstützen wir die individuelle Verwendung von Karmin-Stereokameras ohne SceneScan nicht. Die Stereokamera ist als Produktzubehör gedacht und ist nicht für den Einzelverkauf bestimmt.

Die Basisbreite der Kameras beeinflusst den Tiefenbereich, den Sie mit einer Stereokamera beobachten können, und auch Ihre Tiefenauflösung. Dasselbe gilt auch für die Brennweite der von Ihnen verwendeten Objektive.
Angenommen, Sie verarbeiten einen Disparitätsbereich mit konstanter Größe, dann gelten die folgenden Regeln:

  • Eine Erhöhung der Grundlinie erhöht Ihre Tiefenauflösung, erhöht aber auch den Mindestabstand zur Kamera.
  • Eine Vergrößerung der Brennweite erhöht auch die Tiefenauflösung und den Mindestabstand zur Kamera, verringert aber auch das Sichtfeld.

Sie können diese Beziehung in unserem Stereobasisbreiten- und Brennweitenrechner analysieren.

Kameras mit einer Basisbreite von 1m sind möglich. Wir haben einige Kunden, die ähnliche Basisbreitenabstände verwenden. Dazu würden wir zwei einzelne Kameras verwenden und diese auf einem Aluminiumprofil montieren. Mit zwei Einzelkameras ist selbst eine Schutzklasse IP67 kein Problem. Hierfür können Kameraschutzgehäuse verwendet werden. Hier ist ein Beispiel für ein solches Komplettsystem: https://twitter.com/nerian_vision/status/798097909208190976/photo/1

SceneScan ist zwar auf Graustufenkameras beschränkt, SceneScan Pro unterstützt jedoch auch Farbkameras. Wir empfehlen die Verwendung von monochromen Kameras, es sei denn, Sie benötigen unbedingt Farbinformationen. Der Grund dafür ist, dass die Verarbeitungsleistung bei der Verwendung von Farbkameras reduziert ist (normalerweise weniger als die Hälfte der Bildfrequenz). Außerdem bieten monochrome Kameras eine bessere Bildqualität, wodurch die Stereoergebnisse verbessert werden.

Bei Farbkameras ist die empfohlene Auflösung die Hälfte der Sensorauflösung, da wir versuchen, Bayer-Muster-Artefakte zu vermeiden. Das bedeutet, dass wir für einen Sensor mit einer nativen Auflösung von 2048 x 1536 nur eine Auflösung von 1024 x 768 für die Verwendung mit SceneScan empfehlen.

Sie können die Einstellungen in unserer Software-Schnittstelle ändern. Dennoch leidet die Bildqualität, wenn Sie die Farbausgabe auf monochrom ändern. Es wird daher empfohlen, von Anfang an eine monochrome Kamera zu verwenden, wenn monochrome Bilder benötigt werden.

Das weiteste FoV, das wir anbieten können, ist 90° diagonal. Darüber hinaus ist es leider nicht möglich, verzeichnungsarme Objektive zu finden. Bitte wählen Sie bei der Auswahl Ihrer eigenen Objektive stets welche mit geringer radialer Verzeichnung. Max. 2,5% TV-Verzeichnung bei 2 MP Auflösung oder 5% bei 0,5 MP).

6. Allgemeine Fragen über das Unternehmen und die Prozesse

Selbstverständlich stehen wir für die Unterstützung bei der Installation unseres Systems zur Verfügung.

Wir verkaufen und versenden weltweit.

Unsere Produkte werden mit 2 Jahren Garantie ausgeliefert.

Die Lieferzeit beträgt bis zu 4 Wochen, je nach Lagerbestand und Konfiguration.