3D Bild mit Kamera aufnehmen

Suchtl

Grünschnabel
Hallo

ich habe folgendes Problem, ich möchte einen nicht bewegten Raum (Zimmer etc) mit einer (oder mit zwei) Kameras aufnehmen und dieses Bild dann in eine grobe 3D-Ansicht bringen...

Sprich aus einer bunten Aufnahme meines Wohnzimmers wird eine Art farbloses 3D Modell gerechnet...
(Winkel wie der zwischen Kamera - Boden, Abstand Kamera - Boden, etc bleiben immer konstant und können natürlich gemessen/angegeben werden.)

Nun zu meiner eigentlichen Frage, gibt es bereits Tutorials (oder gar fertige APIs) mit derenHilfe ich das Bild der Kamera in eine "Art" 3D Bild umwandeln kann?

THX schonmal für eure Hilfe *g*
 
Verbinde einfach zwei Kameras so, dass der Abstand immer der gleiche ist (sollten also fix miteinander verbunden werden) und sie sollten auf den gleichen Punkt zielen, damit solltest eigentlich einen quasi 3d-Effekt bekommen.

Aber ein echter Grafiker kann da sicherlich mehr dazu sagen...
 
ich glaubich hab mich falsch ausgedrückt *g* (trotzdem schonmal thx)

Ich will mit Hilfe der einen/zwei Kameras eigentlich nur erreichen, daß ich im Rechner ein 3D Koordinaten System habe und mich mit dem dann quasi autonom im Raum bewegen kann...

sprich der rechner hat zwei webcams und kann dadurch denraum erkennen, auf den die cams gerichtet sind und mir dann die koords von eckpunkten etc in etwa wiedergeben kann...

sagen wirs mal so, die Implementation wäre nicht das Problem, und die Rechenkapazität auch nicht, eher die Art wie man das berechnen kann, denn da habe ich im moment leider keine Ahnung von...

Sowas in der Art wie ich stelle mitten in den Raum einen "Tower" mit den beiden Cams, diese drehen sich und geben die Bilder an den Rechner und der gibt mir dann in einem x-y-z Koordinaten System mögliche Objekte wieder...
ich hoff jetzt versteht ihr mich *g*
 
Erstmal musst du deinem System beibringen, in Videobildern Kanten zu erkennen. Dazu muss wahrscheinlich erstmal gefiltert werden.

Dann muss es in der Lage sein, zu erkennen, welche Bildteile/Kanten in den beiden Teilbildern zusammengehören bzw. das gleiche Objekt aus verschiedenen Blickwinkeln sind.

Danach kannst du durch Vergleich der beiden Projektionen herausfinden, wo im Raum sich gefundene Eckpunkte befinden. Das bedeutet eine Menge Vektorrechnung.

Ich habe es selbst noch nicht ausprobiert, denke aber, dass es keine triviale Aufgabe ist.
 
hm..
das beschriebene is schonmal nen guter tipp *g*
also die ganzen beschriebenen sachen hab ich bis auf eine schon teilweise gefunden mit bestehenden opensource projekten, nur gibts da ned eine ganze oda so? *g*

oder was mir auch weiterhelfen würde GUTE Tutorials zum selbst programmieren *g*
(ich studiere Informatik an der TU München, alsoVektorrechnung etc ist kein Problem für mich)
Ich müßte nur wissen, was ich wie hintereinander schachteln müßte...
Für ein paar gute Links wäre ich euch sehr Dabkbar *g*

THX schonmal für das gute Post...
 
Also ich will das nicht abstreiten, daß sowas geht.
Für mich stellt sich nur die Frage: Woher bekommst du die Tiefeninformationen.
Ich denke mal nicht umsonst geben diverse Produktionsfirmen zig tausende von € oder $ für spezielle 3D-Scanner aus.
Diese Geräte basieren auf Lasertechnik und "tasten" somit die Umgebung ab, daraus kann der Computer dann 3D-Objekte erstellen.
Aber mit einer "normalen" Fotokamera, denke ich wird das sehr schwer, da du ja aus dem 2D Bild versuchen willst eine 3D-Welt zu erschaffen.
Aber wie gesagt nix is unmöglich.
P.S. wenn du da ein Verfahren entwickelst, das brauchbar sein wird, dann viel Glück, denn dann darfst du dich Millionär nennen :)

Das waren meine 2 Cent

Gruß Homer
 
Für mich stellt sich nur die Frage: Woher bekommst du die Tiefeninformationen.
Durch Vergleich der beiden Bilder für das rechte bzw. linke "Auge", genauso, wie wir als Menschen das intuitiv tun. Das würde im einfachsten Fall sogar mit den Strahlensätzen gehen, wenn ich das gerade (noch ohne Kaffee) richtig beurteile. Das Hauptproblem ist das Herausfiltern der Geometrie (Kantenfindung im Foto) und die Zuordnung.
 
Ja wie gesagt ich streite das nicht ab. :)
Aber man kann das nicht einfach mit dem Sehmechanismus des menschlichen Auges vergeleichen, denn eine vergleichbare Technologie gibt es einfach noch nicht.
Fraglich ist ob es sowas jemals geben wird *g*
Ich denke daß die Methode der Kantenfindung sehr, sehr ungenau wird.
Auf jedenfall ein interessantes Projekt.

Gruß Homer
 
Original geschrieben von Daniel Toplak
Fraglich ist ob es sowas jemals geben wird *g*
Also, so knifflig ist es nun auch nicht. Es handelt sich ja nicht um Antigravitation oder Zeitreise.

In einem kontrollierten, visuell klaren Umfeld ist es kein Problem, ein dreidimensionales Modell der Umgebung mit nur zwei Bildern zu berechnen.

Grundsätzlich werden solche Techniken bereits (experimentell) eingesetzt, beispielsweise um Autos mit einem Autopiloten zu versehen. In dem Fall wurden die Fahrbahnmarkierungen aus dem Videobild gefiltert, um die Elektronik mit Informationen über die Position des Fahrzeuges zu versorgen.
(Quelle: Auto-Pilot
Bildverarbeitungsrechner steuert PKW
Report, Bildverarbeitung, EG-Projekt "Prometheus", Bildverarbeitung mit Transputer-Parallel-Rechnern, Autopilot für Fahrzeuge, Fahrbahn-, Hindernis-, Merkmalsextraktion
c't 12/93, Seite 48)


An den Robot-Fussball-Meisterschaften in Japan (?) (Auch dies: http://www.robocup.org/) nehmen auch Maschinen teil, die ihre Umwelt nach den von mir beschriebenen Prinzipien wahrnehmen.

Kann jemand das bestätigen? Ich google gleich mal nach weiteren Informationen.

Hier noch ein paar interessante Links zum Thema ("Reconstruction of Spatial Geometry"):
Computer Algorithms for the Reconstruction of Spatial Geometry from Stereoscopic Images
Image-Based Reconstruction of Spatial Appearance
Suchtl, dieser sollte für dich interessant sein: http://geometryalgorithms.com/overview.htm
 
Zuletzt bearbeitet:
Zurück