Motion Capturing

Ja,es geht.
Wenn der Char die Augen auf und zumacht,schneiden die Lieder die Augaepfel.
Woher wissen die Punkte der Lider,dass sie sich in einem Bogen um eine Achse drehen muessen?
Du schreibst eine Xpresso-schaltung,dass die Punkte am unteren Lidrand immer den selben Abstand zum Augapfel halten muessen.
(Kann ich Dir e-mailen,-fuer C4D allerdings)

Wenn Du ein Video von der Seite aufnimmst und mal alle Phoneme und wichtigen Gesichtsausdruecke durchprobierst siehst Du schon vorher,welche Teile sich praegnant in der z-Richtung bewegen.

Oder Du verschiebst bei Deinem 3D char (nach Video-Vorlage)die vertexes nur in der x-y-Richtung .z ganz deaktiviert.
Dann siehst Du schon,was passiert.

Frames sind Standbilder.Es kommt nicht drauf an,wieviele es sind.
Was das mesh kann und die z-Richtung sind das Problem.
 
Zuletzt bearbeitet:
Hi hast du das Programmiert...Hammer Hart
Fragt sich jetzt wann und ob man das runterladen kann so eine 3d Gesichtsaufnahme ist sehr praktisch man kann die Mundbewegungen den 3dMund anpassen und gleichzeitig ins Mikro reden sehr spannend

Wird auch blinzeln erkannt also nicht nur Mundbewegungen sondern auch Augenblinzeln, (lächeln sowieso) und heild verzerrungen wenn man anspannt
 
Das Programm ist in der Mache.. Ich habe hier Leute gesucht, die mich bestärken bzw.
mir abraten, weil es schon solche Software gibt.

Das Programm wird in der ersten Version keine Realtime unterstützen. Sprich,
Kopf mit Markern aufnehmen, Analysieren, dann die Punkte im 3D-Programm benutzen.

Was alles erkannt wird, ist davon abhängig, wieviele Markerpunkte man ins Gesicht klebt.

Warum ich es schreibe ? Ich habe HipHopTracks, bei Denen ich keine Standard
"Lasst-Uns-In-der-Hochhaussiedlung-Drehen"-Videos machen wollte. Und da ist
es nur einfach, man dreht den Rapper nochmal beim Rappen ab - mit den Marker-
punkten - und benutzt dann die Daten für Character in der 3D-Software.

mfg chmee
 
Geduld :)

Tatsache ist, dass ich mich im Moment mehr ums Geld verdienen kümmere als
"Non-Profit"-Ideen realisieren zu kümmern. Aber im Grunde genommen
bin etwa bei alpha 0.3 :) naja eher 0.5

mfg langsamer chmee
 
Moin,

ungeduldig bin ich nicht. Das Vorhaben an sich finde ich bewundernswert. Software wie Boujou, PFTrack, MatchMover o.ä. fanden ihren Ursprung in Teams aus Universitäten. Auch wenn sich Dein MoCap "nur" auf das Gesicht beschränkt, ist es für eine Person schon eine besondere Herausforderung.
Für die Z-Achse benötigst Du aber nach wie vor die Tiefeninformationen eines klassischen 3D-Motiontrackers.

Gruß
 
Ich werd das Dingen mal mit der von mir gedachten 2D-Tracking-Variante in eine
funktionsfähige Version bringen. Letztlich werde ich ( wir ) sehen, ob 2D reicht
oder nicht :)

mfg
 
Also ich hab mich in der latzten zeit mal ein bisschenm mit dem hgier erwähnten Dgeeme beschäftigt. Sivuel ich herausgefunden habe sind die exportierten bvh dateien von dgeeme fehlerhaft erzeugt.
wie seihts aus mit den c3d und csm datein, die man ja auch exportieren kann?
 
chmee,lebst Du noch?

Was haelst Du von diesem Ansatz?

http://www.vision.ee.ethz.ch/~pmueller/wiki/VisualSpeech/AvatarCharacters

ich verstehs nicht ganz,aber es sieht intressant aus.
Also das mit dem clonen versteh ich,aber das ab Foto mit Punkten..die Z-Dimension ist da..wie?

Bei diesem http://www.renderosity.com/news.php?viewStory=13885 Ansatz wurde mir aber definitif klar,dass es viele Wege gibt,Referenzpunkte auf einen Char zu uebertragen.
Entscheidend ist das Referenzmaterial.
Es braucht mind. 2 Kameras,die simultan aufnehmen..der Rest ist simpel.
hach..wer hat schon gleich 2 Kameras!
Hast Du Dich noch weiter befasst mit Deinem Projekt?
Schoene Gruesse
 
Zuletzt bearbeitet:
Zurück