Selber Video-Erzeugung implementieren

multimolti

Erfahrenes Mitglied
Hallo,

ich muss für ein Projekt einen Video-Output realisieren, d.h. ich erzeuge mit meinem Code Grafiken und möchte die am Ende nacheinander in einer Videodatei abspielen.

Ich habe bereits versucht, das mit ffmpeg zu implementieren, was auch funktioniert, aber die platformunabhängigkeit leider stört. Andere Bibliotheken, wie z.B. openCV, sind mir eigentlich viel zu aufgebläht.

Am liebsten würde ich den Output selber implementieren, falls das mit wenig Aufwand möglich ist. Bitmaps kann man ja sehr einfach selber erzeugen, ohne Bibliotheken dafür nutzen zu müssen. Geht ähnliches auch für ein Video? Dabei ist mir das Format eigentlich egal und Kompression möchte ich auch gar nicht haben. Meine Idee wäre etwa so:

  1. Ich erstelle eine Datei und streame da einfach meine Bitmaps rein
  2. Irgendwo in den Meta Tags steht die Framerate und die Auflösung drin
  3. Mit den Informationen über Framerate/Auflösung ist ja eigentlich klar, welche Daten zu welchem Bitmap gehören, und die können dann sequenziell wiedergegeben werden

Gibt es ein Containerformat, mit dem sowas realistisch ist? Oder vielleicht sogar eine (sehr kleine und simple) Bibliothek, die das schon macht?

Danke für eure Hilfe!
 

multimolti

Erfahrenes Mitglied
Hey,

also die Größe ist mir egal, der soll ruhig 100GB pro Minute auf die Platte schreiben, meine SSD macht das schon mit...

Aber mit den Microsoft Sachen komme ich nicht weiter, die habe ich schon gesehen. Das Zeug soll ::hauptsächlich:: auf Linux laufen, aber auch auf Windows kompilieren.

Sprache ist C++