3D Scan Technologie:

Die neue Scoobe3D Technologie im Vergleich

Die Zukunft ist 3D

Der 3D Scan ist aus vielen Bereichen nicht mehr weg zu denken, z.B. in der automatisierten optischen Inspektion in der Industrie. Im Gegenteil: er ist prädestiniert für Anwendungen, bei denen die bisherigen Technologien teilweise an ihre Grenzen stoßen. Die Einsatzmöglichkeiten sind schier endlos.

Generell lassen sich 3D Technologien unterteilen in Verfahren mit winkelbasierten, geometrischen Berechnungen (Stereovision, Laser-Triangulation, Strukturiertes Licht) und in zeitbasierte Time-of-Flight-Technik. Die Entwicklungen im spannenden, zukunftsweisenden 3D-Bereich gehen rasant voran. Jüngst gesellte sich zu Lasertriangulation & Co. eine neue, vielversprechende Technologie, die geometrische und zeitbasierte Verfahren kombiniert: Die Scoobe3D Technologie

Fakt ist: alle gängigen Technologien haben Stärken und Schwächen, die ihnen je nach Anwendung einen Vor- oder Nachteil verschaffen. Eine Bestandsaufnahme.

Scoobe3D Technologie – Neuzugang mit Potential

Die Scoobe3D Technologie ist in einer einzigen kompakten Hardware verbaut und kombiniert das 3D-Bild einer Time-of-Flight-Kamera (ToF) mit einem polarisierten RGB-Bild. Zunächst der Reihe nach: Wie funktioniert eine ToF-Kamera?

ToF-Kameras nutzen das Laufzeitverfahren zum Messen von Distanzen

ToF-Kameras nutzen das Laufzeitverfahren zum Messen von Distanzen. Zu diesem Zweck wird mit einem Lichtpuls das Blickfeld der Kamera ausgeleuchtet. Hierfür werden meist Infrarotbeleuchtungen verwendet. Die Zeit, die das Licht hin zum Objekt und zurück benötigt, ist direkt proportional zur Distanz und wird für jeden Bildpunkt von der ToF-Kamera erfasst. So wird für jeden Bildpunkt die Entfernung des abgebildeten Objekts festgehalten.

Das Ergebnis ist ein 3D-Bild, z.B. mit 640×480 Pixeln, das, je nach Sensoraufbau, im Abstand von wenigen Metern bis etwa 40 m aufgenommen werden sollte. Die Auflösung liegt im Optimalfall bei 5 bis 10 mm, ist aber aufgrund von Reflexionen häufig deutlich schlechter. Anwendung finden ToF-Kameras im Logistik- oder Verkehrsbereich, die Genauigkeit ist für andere Bereiche allerdings zu gering.

Aus diesem Grund kombiniert die Scoobe3D Technologie das Bild der ToF-Kamera mit einem polarisierten RGB-Bild und schafft so eine Genauigkeit von 1/10 mm, also 100 µm. Das funktioniert folgendermaßen: Das Objekt kann entweder mit dem Scoobe-Gerät umrundet werden oder aber vor der Kamera gedreht werden.

Der Auftreffwinkel auf dem Messobjekt führt zu einer Teilpolarisation des Lichtstrahls.

Die im Gerät integrierte Lichtquelle projiziert unabhängig von Umgebungsbeleuchtung Licht auf das zu scannende Objekt. Dabei schwingt jedes Lichtteilchen senkrecht zu der Richtung, in die es sich ausbreitet. Der Auftreffwinkel des Lichts auf dem Messobjekt führt zu einer Teilpolarisation des entsprechenden Lichtstrahls, d.h. dass im Licht mehr von einer bestimmten Polrichtung als von einer anderen vorhanden ist (vgl. veränderte Strichelung der Pfeile nach Auftreffen auf dem Objekt).

Dieses polarisierte Licht trifft zuerst auf ein oder mehrere Flüssigkristallmodule und dann auf den Polfilter, der der RGB-Kamera vorgeschalten ist. Die Flüssigkristalle bewirken eine elektrisch steuerbare Drehung der Polarisation des Lichts.

Der Polfilter wirkt wie eine Wand aus Gitterstäben, die das Licht nach Polarisation filtert. Ein Photon kann entweder hindurch gleiten oder wird reflektiert bzw. absorbiert. Letzteres geschieht, wenn die Polymeren, also die „Gitterstäbe“, so zu der Schwingrichtung der Photonen ausgerichtet sind, dass diese nicht passieren können. Befindet sich allerdings die Schwingungsrichtung des Photons in einem bestimmten Winkel ungleich 0° zu der Ausrichtung der Polymeren des Polfilters, so kann das Photon den Polfilter durchqueren und trifft auf die RGB-Kamera.

Der Polfilter wirkt wie eine Wand aus Gitterstäben, die das Licht nach Polarisation filtert.

Somit dringen nur Lichtanteile mit einer bestimmten Polarisation zur RGB-Kamera vor. Insgesamt können so sehr schnell Bilder aufgenommen werden, bei denen verschiedene Polarisationsrichtungen hervorgehoben sind. Dadurch gewinnt das System Informationen zum Winkel, in dem das Objekt zur Kamera steht, woraus ein intelligenter Algorithmus eine Form in 3D rekonstruieren kann. Die resultierende Information ist allerdings eine relative 3D-Information, d.h. ohne absolute Entfernungen.

Absolute Entfernungen werden durch das Bild der ToF-Kamera hinzugefügt, welche allein genommen keine so hohe Genauigkeit des 3D-Bildes liefern könnte. Aus der Kombination der beiden Verfahren lassen sich somit hochgenaue und absolute 3D-Informationen generieren. Aufgrund der essentiellen Bestandteile des Systems, der Flüssigkristallmodule (liquid crystal modules) sowie des Polarisationsfilters (polarizer) wird das Verfahren als Liquid Crystal Polarizatography bezeichnet.

Voraussetzung für die Messung mit der Scoobe3D Technologie ist lediglich kein direktes Sonnenlicht als Gegenlicht. Unruhige Bewegungen der Hand oder des Objekts können von der Software weitgehend ausgeglichen werden, da mit hoher Aufnahmegeschwindigkeit ein großer Bildausschnitt – nicht etwa nur ein Punkt oder Streifen – erfasst wird. So vermeidet die Scoobe Löcher im 3D Scan, Laserflecken oder fehlende Datensätze.

Das Ergebnis ist ein in wenigen Sekunden entstandener 3D Scan, der eine exakte Abbildung des realen Objekts darstellt, verhältnis- und maßstabsgetreu. Da diese Technologie sehr neu ist, sind noch keine festen Anwendungsgebiete bekannt. Man darf gespannt sein auf die ersten Testberichte.

Stereovision – günstiges Verfahren mit Einschränkungen

Die Stereovision ist ein Verfahren für den 3D Scan, das von der Natur, genauer gesagt, den menschlichen Augen, inspiriert wurde. Zwei normale RGB-Kameras nehmen – wie unsere Augen – zwei 2D-Bilder eines Objekts aus unterschiedlichen Winkeln auf. Während dieses Vorgangs darf das Objekt prinzipiell bewegt werden. Durch Triangulation werden die 2D-Bilder anschließend zu einem dreidimensionalen Bild zusammengefügt.

Verfahren nach dem Vorbild der menschlichen Augen

Wichtig für das Gelingen dieser Methode ist, dass jeder Objektpunkt klar einem Pixel in beiden 2D-Bildern zugeschrieben werden kann. Dazu sind Referenzmarken, Muster oder Textur auf der Oberfläche des Objekts nötig. Folglich ist das Verfahren zur Erfassung von spiegelnden oder transparenten Flächen nicht geeignet.

Das fertige 3D Modell enthält keine Information zum Größenverhältnis – so wie für Menschen ein Flugzeug am Horizont vom Maßstab her aussieht wie ein Modellflieger. Für die 3D-Visualisierung von Räumen, die für Menschen gefährlich oder unzugänglich sind, wird das Verfahren trotzdem gerne eingesetzt.Wer allerdings auf Maßstabstreue nicht verzichten kann oder will, dem stehen weitere Optionen offen, wie z.B. die Lasertriangulation.

Lasertriangulation – die Technologie für bestimmte Fälle

Die Lasertriangulation ist eine der einfachsten Vermessungsmethoden. Dabei richtet ein Linienlaser eine scharf-konturierte Linie auf das zu scannende Objekt, welches durch das Sichtfeld des Lasers bewegt wird. Das Licht des Lasers zeigt sich durch die Oberflächengeometrie des Objekts verformt. Die Abweichungen der Lichtlinie werden durchgängig erfasst und gemessen durch eine Kamera, die in bekanntem Winkel zum Laser aufgestellt ist. Als Grundwert gilt der nicht-verformte Laserstrahl. So werden einige Höhenprofile generiert, die zu einem dreidimensionalen Bild zusammengefügt werden.

Die Höheninformationen werden zunächst als Rohdaten in einer Range Map angezeigt – als farbcodierte Grauwerte. Diese Daten sind nicht kalibriert, die Range Map ist pixelbasiert. So kann sie Höhenunterschiede zwar relativ sichtbar machen, bietet jedoch keine metrisch konkreten Werte. Das Kalibrieren mit Hilfe einer Software überführt die Höheninformationen der Range Map in 3D-Punktwolken (auch point cloud).

Ist die Bewegungsgeschwindigkeit des Objekts bei der Messung konstant, so kann eine zeitbasierte Sampling-Methode verwendet werden. Ist dies nicht gegeben, so kann mit Hilfe eines Encoders, der die Objektbewegungen kontrolliert, ein Glätten von Rotations- und Positionsabweichungen vorgenommen werden – in allen sechs Freiheitsgraden (auch six degrees of freedom). Es gibt bereits Geräte, die diesen Berechnungsschritt intern erledigen und fertige 3D-Bilder ausspucken. Das spart die Berechnung auf dem Host-Rechner. Andere 3D Kameras führen diesen Schritt durch einen angeschlossenen Computer durch.

Foto: Stefan Ladda, pixelio. Scharf-konturierte Laserlinien scannen das Objekt

Voraussetzung für die Durchführbarkeit der Lasertriangulation ist, dass sich das zu scannende Objekt relativ zur Laserbeleuchtung und zur Kamera bewegt. Für jede Messsequenz muss das Objekt in Ausgangsposition zurück gebracht werden, wobei es nicht sehr präzise platziert oder bewegt werden muss dank der nachträglichen Korrektur und Glättung von Fehlern. Dieses Verfahren ermöglicht auch das Erfassen von sehr großen Objekten.

Ein weiterer Aspekt, den es zu beachten gilt, ist das Umgebungslicht (beispielsweise Tageslicht, das durch ein nahes Fenster fällt). Das kann stark variieren, je nach Uhr- und Jahreszeit und unterliegt nicht der menschlichen Kontrolle. Dennoch kann es die Messergebnisse von 3D-Sensoren signifikant beeinträchtigen, verfälschen oder gar das Ausbleiben von Ergebnissen bewirken.

Besonders bei Anwendungen unter direktem Sonnenlicht sollte dies ein wesentlicher Punkt in den Überlegungen zur Wahl des Messverfahrens sein. Die Lasertriangulation eignet sich unter solchen Umständen nur bedingt, z.B. unter Verwendung von Hochleistungs-Lasertriangulations-Sensoren. Diesen kann man einen optischen Filter vorschalten, der das Umgebungslicht ausblendet. Diese Hochleistungssensoren erhöhen somit die Qualität von Aufnahmen mit starkem Umgebungslicht und verringern gleichzeitig die Dauer der Aufnahmen. Andererseits erhöht die gesteigerte Leistung dieser Laser die Gefahr für Augenschäden.

Hat man all diese Schritte dennoch erfolgreich durchlaufen, sollte man einen fertigen 3D Scan vor sich haben. Der Vollständigkeit halber sei an dieser Stelle erwähnt, dass zu den möglichen Problemen des Lasertriangulationsverfahrens sogenannte Abschattungen zählen, sprich Objekteigenschaften, die durch andere Oberflächenformen verdeckt und somit nicht erfasst wurden. Da die Höheninformation der fraglichen Stelle nicht erkannt wurde, taucht sie auch im Korrektur-Arbeitsschritt nicht als Fehler auf. Abschattungen können sich etwa in Form eines Lochs im Modell äußern.

Will man dieses Problem beheben – bei weiterer Verwendung der lasertriangulation – so kann man mehrere Kameras benutzen, die die Laserlinie aus verschiedenen Winkeln aufnehmen. Diese variierenden Datensätze der einzelnen Kameras werden dann wie gehabt zu einem Höhenprofilbild kombiniert. Eine weitere Möglichkeit ist, zwei unterschiedlich positionierte Laser zu verwenden. Beide Vorgehensweisen reduzieren das Risiko für fehlende Objektdaten.

Was leider nicht zu vermeiden ist, ist der Speckle-Effekt, der durch Lasertriangulationssensoren entsteht (ein Resultat aus der Reflexion kohärenten Lichts von rauen Oberflächen). Diese Speckles, zu Deutsch „Laserflecken“, machen das Verfahren für Messungen im µm-Bereich unbrauchbar. Für solche Anwendungen eignet sich beispielsweise Strukturiertes Licht bestens.

Strukturiertes Licht oder „structured lighting“ – der Chirurg des 3D Scan

Die Ergebnisse von Strukturiertem Licht sind sehr präzise. Das Verfahren basiert ebenfalls auf Triangulation, doch das Vorgehen ist komplexer als bei der Lasertriangulation.

Codiertes Licht wird in verschiedenen Mustern streifenförmig auf das Objekt geworfen.

Strukturiertes Licht nutzt codiertes Licht, welches in verschiedenen Mustern streifenförmig auf das Objekt gestrahlt wird, beispielsweise durch hochauflösende Mikrospiegel-Displays. Die Höhenstruktur des zu scannenden Objekts beeinflusst das Lichtmuster, welches von einer Kamera in bekanntem Winkel aufgenommen wird. Daraus ergibt sich eine Abfolge von Streifenbildern in 2D, die mit Hilfe einer Matrix in eine 3D Punktewolke und dann in ein 3D-Bild umgerechnet werden.

Voraussetzung für den 3D Scan ist, dass das Scanobjekt maximal 2m misst und ruht. Bewegt sich das Objekt während des Scans, können Fehler im Datensatz auftreten. Ist das Objekt erst stationär aufgestellt, sind noch Parameter wie Belichtung, Filterung und Analyseeinstellungen zu optimieren. Für die Belichtung wird meist eine LED-Beleuchtung verwendet, die keine Risiken für das Augenlicht mit sich bringt.

Wird der Messvorgang korrekt ausgeführt, so verläuft die Erfassung der Daten innerhalb weniger Sekunden. Das Ergebnis ist extrem genau, bis zu 5 μm, was dadurch erreicht wird, dass die Lichtintensität in jedem Kamerapixel ausgewertet wird, im Gegensatz zum Laserscanner, wo dies über einige Kamerapixel hinweg geschieht. Diese Messgenauigkeit kombiniert mit den ausbleibenden Laserflecken, prädestiniert das Strukturierte-Licht-Verfahren für Anwendungen im mikrometergenauen Bereich. Es wird beispielsweise im Rahmen industrieller Kontrollen verwendet.

Fazit

Viele Wege führen nach Rom: Will man 3D-Daten erfassen, geht das mit einer Vielzahl an Verfahren. Wie so oft ist hier der Schlüssel zum Erfolg das Wissen darum, was im eigenen Fall wichtig ist und worauf Wert gelegt wird.

Die 3D-Branche ist eine schnell-wachsende, hoch-innovative Branche, aus der sicherlich immer wieder Neuerungen ihren Weg zu uns finden werden. Es ist eine spannende Zeit, um sich mit dem Thema 3D zu beschäftigen, einem Thema, das unsere Zukunft maßgeblich formen wird.

Das könnte dich auch interessieren:

Scoobe3D 3D Scanner Buying Guide
3D Druck
0 replies

Hinterlasse einen Kommentar

Du willst mitdiskutieren?
Wir freuen uns auf deinen Beitrag!

Leave a Reply

Your email address will not be published. Required fields are marked *