Motion Capturing

Hi!
www.slashcam.de hat gesagt.:
Für alle die sich nicht mehr erinnern: Icarus war ein ziemlich guter Motion Tracker/Match-Mover, der von der Universität in Manchester entwickelt wurde. Das Programm war dabei so gut, dass es von der Firma PixelFarm aufgekauft, weiterentwickelt und nur noch (unter anderen Namen wie z.B PFHoe) kommerziell vertrieben wurde. Icarus war fortan nur noch über Foren erhältlich, in denen sich die Anwender das Programm gegenseitig weitermailten. Unter der strengen Auflage, dass man das Programm nur für Lehr- und Lernzwecke einsetzt konnte ein Anwender jedoch die PixelFarmer erweichen, es nun wieder auf einer Webseite zum Download zur Verfügung zu stellen. Und die entsprechenden Lehr-Videos gibt es gleich noch gratis obendrauf.(News)
-> Icarus

...ist das von Euch gesucht? :)

Liebe Grüße,
Mark.
 
Wow! herzlichen Dank Mark!
Wieso bloss bin ich immer so gluecklos mit googeln..
also es ist praezis das Gesuchte :)
und mit 44mb waer das nicht zu e-mailen gewesen..bin grad am downloaden=3Stunden..die tuts sind alles schwergewichtige Quicktimes.
Danke!
 
Hi, aus dem anderen Thread hierher und weiter geht es!

Anleitung zum Motion Tracking +Bewegungsflussaufnahme für eigene motion capture Datein für arme Menschen mit brillianten erfolg!

Wir benötigen:

1 Kamera
Geduld
und viel Spucke !
dazu natürlich 3ds max

Wir fangen an.


Du stellst zuerst eine Kamera auf ein Stativ !
Du solltest eine Grosse Wand hinter dir haben am besten ohne Schränke.
Du beklebst mit Klett oder Tesakrepp bemalte Tischtennisbälle (rot) auf deine Gelenke
Du solltest mindesten 10 Tracking Punkte dafür nutzen.

1.Kopf
1 pro Schulter
1 pro Ellenbogen
1 Talie
1 pro Knie
1 pro Fuss

Nun stellst du deine Kamera auf aufnahme und tänzelst etwas vor der Cam rum
Achte aber darauf das du mindestens 6 Punkte immer für die Kamera sichtbar hast

Das bedeutet das du dich nicht ganz um die eigene Achse drehen solltest.
(Falls du das vorhast solltest du den Faktor x 4 nehmen ergo würde ein Kopf 4 Tischtennisbälle brauchen.

Nun startet ihr max nachdem ihr eine Aufnahme von euch gemacht habt.

Ladet euer Movie in den Max Ramplayer
und verwendet das Video als Background und closed den wieder.

Nun ab in den 3ds max Camera Tracker auch dort ladet ihr euer File (Movie)
Nachdem das Movie geladen ist dauert je nach länge etwas begebt ihr euch auf den Button Display Movie da könnt ihr Matchpoints setzten :)

Klingt doch total simple oder ?

Also ich habe ja Eure roten Tischtennisbälle gut sichtbar im Bild :) ?
Die trackt ihr nun ,.. in der Motion tracker Registerkarte könnt ihr eure
Matchpoints setzten im video. nachdem ihr alle Eure Punkte abgearbeitet habt
habt ihr die Möglichkeit diese Matchpoint Aufnahme zu exportieren :) :p

Das wolltet ihr doch ?

So nun habt die Möglichkeit eine csv zu saven :) CSV das istd as was ihr auf euren Models nutzen könnt als Animationsdatei ;)

Das alles was ich hier geschrieben habe war sowas von knapp erklärt das nur ein Profi im mocap klarkommt wenn die Nachfrage gross genug sein sollte,... Dann würde ich solch ein Tutorial mal als Video aufnehmen. Damit jeder damit die Möglichkeit hat sowas zu realsieren.

bla bla resonanz :) ?

Gruss Broke
 
Hi!

Ganz naiv nachgefragt:
a) wie interpretiert Deine "zweidimensionale Trackingmethode" die Z-Bewegungen? Beispiel: Person von der Seite zu sehen, Arm zeigt in Blickrichtung und dreht auf die Kamera zu... Oder: Person sieht Richtung Kamera und geht: Knie erfahren nur eine y-Bewegung, keine in Z?!
b) ist eine Seitenaufnahme überhaupt denkbar? -> hintere Schulter (/Arm) wird früher oder später vom Kopf verdeckt...
c) die Hände benötigen keinen Trackingpunkt?!

...hm, für mich bleiben da nurnoch die typischen "Hampelmann"-Bewegungen übrig, denn Überschneidungen / Verdeckungen und die Z-Dimension fallen quasi aus... :(

...aber als "Vorlage" macht es sicher Sinn so zu arbeiten und glücklich, wer da sogar noch eine zweite Kamera -> eine zweite Ansicht benutzen kann :)

Liebe Grüße,
Mark.
 
Erstmal Rofl natürlich habe ich das geändert gehabt es sind 12 / 1 pro Hände
Kein Plan warum er es nicht geändert hat !

Ja alles ist machbar auch die Drehung um die eigene Achse (360°)

Das Video wird in Max geladen und man kann direkt am Bildschirm die Matchpoints den Tischttennisbällen Folgen lassen und nun der Clou man muss nur minimal korrgieren max verfolgt automatisch festgelegte Matchpoints :D

Zur Drehung nochmal .

Wenn du dich drehst und zB 5 Points aus der Sicht der Kamera verschwinden so sollte man eben den Fakto 4 anwenden so das in jeder position genug Matchpoints vorhaden sind. Wenn man solch eine Posi hat die du da erwähnst.Dann stellt das kein Prob dar! Du kannst auch per Hand nachträglich Den Bewegungsverlauf der Matchpoints korregieren.

Stell dir vor du hast einen Punkt der sich immer Bewegt Max Fixiert den Punkt und verfolgt ihn mit einem Fadenkreuz und schreibt den Pfad in den Cache. wenn er zulang keinen Punkt hat an der er sich orientieren kann so verwackelt alles und dann würde die animation in dem Augenblich verreissen das kann man nachträglich aber korregieren in dem man per Hand den Pfad anpasst. Geht in 1 Frame wie als auch in 10er schritten.

2 Kameras sind unsinn für den nicht profi da sie nämlich SYNCHRON laufen müssen ;)

Ich habe schon viel mit Motion Tracking gemacht sowie diese Animation auf meinem Schreibtisch :)

http://www.max-3d.de/max/thread.php?threadid=2067
Codec nötig zum anschauen ich benutze 4 (TSCC,DIVX,XVID,H264)
Alles codecs gibbet bei mir auf der Seite :)
 
Zuletzt bearbeitet:
Hi!
Codec nötig zum anschauen
...und eine Anmeldung wohl auch ... da wird's nix mit mir ;)

Nein, Mißverständnis, die gängigen Motion-Capturing-Anwendungen sind mir bekannt. Aber (großes Aber ;) ): Du schreibst etwas von einem Schreibtisch ... das Capturen von "nicht-beweglichen" Objekten/Räumen ist mir klar und logisch (Perspektive berechnen etc.). Wie aber - um die Frage nocheinmal zu wiederholen - interpretiert Max eine Z-(Tiefen)-Änderung bei bewegten Objekten?!
So zum Beispiel Deine erwähnte Drehung um 360°: woher weiß Max, in welche Richtung man sich dreht?! (da nimmt der Abstand der getrackten Schulterpunkte ja nur ab, ohne zu zeigen, welcher davon näher kommt, welcher sich entfernt)

@zweite Kamera: da ja nun, wie Du selbst sagst, alles "wenig professionell" ist, reicht es ja vollkommen die Bilder +/- 1 Kader zu synchronisieren und dafür reicht bereits ein simples, schnelles Klatschen mit den Händen ;)

Liebe Grüße,
Mark.
 
Ich glaub ich mach nen Tutorial wobei ganz unrecht hast du nicht mit der Erkentnis der Drehung es kann wirklich ein problem darstellen : ?! Wenn man sich das mal überlegt ,... ich glaube das ist aber trotzdem machbar :)

Auch mit einer Kamera!

Ich werde nen Tutorial darüber schreiben wie was warum ,... Video Tutorial das Tracken in max ist immer etwas heikel aber ich denke das klappt schon :D

Meine Güte endlich mal einer der Ahnung hat *g*
 
Hab jetzt die letzten posts nicht komplett durchgelesn, aber kann gleich sagen: sorry, das ist schwachsinn!

Max Mocap eignet sich für zwei Dinge:

1. Tracking einer Kamera, die durch einen Raum fährt, in dem zueinander Fix liegende und genau ausgemessene Tracking points angebracht sind

2. Zum Tracking von Objekten, die sich in einer bekannten Ebene Bewegen. Z.B ist es möglich, Tischtennisbälle die über einen Tisch rollen zu tracken und diese Bewegung dann 3D Objekten zuzuweisen, wenn man angibt, dass sie auf einer horizontalen Ebene rollen.

Nr. 1 kann man natürlich für Starre Objekte invertieren. Wenn man also ein starres Objekt hat, kann man dafür die Kamera Tracken und das per Script als Rotation/Bewegung des Starren Objektes umrechnen.
Für bewegliche Objekte wie einen Menschen, bei dem die Trackingpoints zueinander nicht Fix sind und auch deren Abstand zueinander nicht bekannt ist, ist das völliger Quatsch!

Es geht schlicht und ergreifend nicht!
Du kannst das video aber natürlich als gute Animierhilfe gebrauchen . . .
 
cycovery hat gesagt.:
Nr. 1 kann man natürlich für Starre Objekte invertieren. Wenn man also ein starres Objekt hat, kann man dafür die Kamera Tracken und das per Script als Rotation/Bewegung des Starren Objektes umrechnen.
Für bewegliche Objekte wie einen Menschen, bei dem die Trackingpoints zueinander nicht Fix sind und auch deren Abstand zueinander nicht bekannt ist, ist das völliger Quatsch!

Es geht schlicht und ergreifend nicht!

:suspekt: Ich glaube kaum das du mit deiner Aussage Recht hast :)
Wobei ich deine Künste nicht in Frage stellen möchte

Und es geht doch :p

Aber mit deiner Aussage, sagst du aus das ich nen Dummschwätzer bin!
Schwache Leistung :suspekt:

Aber wenn ein "Profi" spricht dann will ich ihm nicht wiedersprechen.
Schmeiss dein Google an es gibt dazu nen Tutorial.

Glaubst doch nicht das ich mir sowas aus dem Finger sauge ?
 
Zuletzt bearbeitet:
Zurück