Resource icon

Video-FAQ | 1. Grundlagen

In dieser recht umfangreichen FAQ fassen wir für dich die wichtigsten Informationen zu technischen Aspekten der Videoproduktion übersichtlich zusammen. Klick dich einfach durch die folgenden 5 Seiten.

1. Grundwissen

1.1 Aufnahmeformate
1.2 Halbbilder - Vollbilder
1.3 Aufnahmemedium
1.4 Kodierung
1.5 Farbmodelle
1.6 Auflösung und Bildwiederholrate
1.7 Bildseitenverhältnis und Pixel Aspect Ratio
1.8 Beleuchtung
1.9 Filmlook
1.10 Deinterlacing
1.11 Kamera - Einstellungen
1.12 Anschließen - Kabelwirrwarr und Signale
1.99 Grundwissen-FAQ


1.1 Aufnahmeformate

Grundsätzlich ist das TV-Format ( 4:3 SD PAL ) das Standardformat zur Schaffung von Videomaterial (768x576px bei 50Hz interlaced). Durch den Wandel der letzten 5 Jahre wird das 16:9 Breitbildformat immer gegenwärtiger und schafft es wohl, gemeinsam mit den HD-Formaten in den nächsten 5 Jahren das 4:3 Format komplett abzulösen. Unterschieden werden muss zwischen Fernsehformaten PAL und NTSC, die grundsätzliche Verschiedenheiten aufweisen : PAL ist das europäische Videoformat, welches 25 Frames bzw. 50 Fields pro Sekunde aufweist, im Gegensatz zu den NTSC-Formaten, die bei 30 bzw. 29,97 Frames / 60 bzw. 59.94 Fields liegen und eine geringere Auflösung vorweisen.

Besonderheiten:
Am Rechner wird das SD-Signal mit 720x576px (PAL CCIR-601) aufgenommen, das hat mit der PAR zu tun, die in 1.7 erklärt wird.

Weblinks:
Basiswissen PAL-Video
Fernsehnormen Standards und Techniken
Noch eine schöne Auflistung der Formate
Welches Land benutzt welchen Standard


1.2 Halbbilder und Vollbilder

Das TV-Bild wird im Zeilensprung-Verfahren gesendet. Eigentlich sind es 25 Bilder die Sekunde, nur wird beim Röhrenfernseher die Darstellungsrate verdoppelt, und beim ersten Durchgang die erste Hälfte ( alle ungeraden Linien ), beim zweiten Durchgang die zweite Hälfte ( alle geraden Linien ) dargestellt. Der Grund für diese Darstellung liegt in der geringen Wiederholfrequenz ( 25Hz ), die auf einem Fernseher stark flackern würde, also wurde sie verdoppelt, um jenen Umstand zu minimieren. Für PC-Monitore gilt diese Aussage auch, doch im Computerbereich wurde gleich auf das Vollbildverfahren gesetzt, da durch die kurzen Übertragungswege höhere Frequenzen und Auflösungen möglich sind. Problematisch wird es, wenn Halbbilder auf dem Rechner bearbeitet werden, da man nicht sofort erkennt, wenn es zu Problemen kommt, wo man die Lösung findet. Erstens haben die meisten Player und Schnttprogramme einen Deinterlacer eingebaut, der versucht, das Halbbild-Video sauber darzustellen, es sieht also sauber aus, obwohl zB die Halbbildreihenfolge falsch herum gewählt wurde ( zuerst die Geraden, dann die Ungeraden ), was dann auf dem Fernseher mit nervösem Ruckeln quittiert wird.

Seit dem Erscheinen von HD ist auch das Thema Vollbilder im Wohnzimmer ein Thema, im Englischen progressive. Dafür sind aber Wiedergabegeräte notwendig, die hohe Videofrequenzen verarbeiten können. Das sind entweder PC-Monitore oder dgitale Wiedergabegeräte, wie Plasma, LCD oder TFT, welche einen Prozessor innehaben und aufgrund ihres Aufbaus per Se für Vollbilder gedacht sind. Aktuell werden Videoformate mit einem i oder einem p gekennzeichnet, wenn die Unterscheidung zwischen interlaced oder progressiv klargestellt werden soll.

Mein Tip:
Halbbilder für Fernsehauspielungen ( zB DVD ), Vollbilder für das Web erstellen.
Ausnahmen bestätigen die Regel ( HD-Auflösungen für HD-Geräte )

Weblinks:
Wikipedia Interlacing
Interlacing - zweiter Link
Interlacing - dritter Link


1.3 Aufnahmemedien

Aktuell werden Beta- und DV-Magnetbänder, DVDs, Festplatten und Speicherkarten zu Speicherung genutzt. DV hat viele Unterformate, Mini-DV ist wohl das bekannteste Kassettenformat, es existieren viele Derivate, die für Profis von Belang sind. Beta-Bänder spielen im Konsumerbereich keine Rolle. DVDs spielen eine Rolle als Wiedergabemedium, waren eine Zeitlang ein beliebtes Kamera-Aufnahmemedium. Inzwischen haben sich die speichergestützten Formate im Konsumerbereich durchgesetzt, also Festplatte oder Speicherkarte. Die Auflösung und Aufnahmekodierung ist von Hersteller und Format abhängig, grundsätzlich wird Mpeg2, Mpeg4/AVCHD oder DV-Kodierung benutzt.

Mein Tip:
Das Thema Archivierung im Auge behalten. DV-Kassetten sind schneller und einfacher zur Seite zu legen, als eine Festplatte, die schnell randvoll und stoßempfindlich ist.

Weblinks:
Digitale Bandformate
DV Definition in englisch


1.4 Kodierung

Um die gewaltige Flut an Daten auf den Medien zu speichern, müssen sie klein geschrumpft werden. Einerseits kann man es mit mathematischen Mitteln machen ( zB gleiche Datenreihen verkürzen -> 111111111111 = 12x1 ) oder mit visuellen Ideen, wie es das bekannte Jpg und auch mp3 machen. Den Ideen zugrunde liegt die Tatsache, dass der Mensch nur eine eingeschänkte Wahrnehmung hat, der Eine mehr, der Andere weniger. Grundsätzlich werden die "Daten" wahrnehmungstechnisch kaum verändert, während im Hintergrund viele Informationen zusammengefasst oder sogar gelöscht werden. Beispielsweise ist der Mensch ( besser: das Auge ) in der Lage, Helligkeitsunterschiede sehr fein aufzulösen, während die Farbinformationen viel gröber aufgenommen werden ( siehe 4:2:2 ). Auf dieser Tatsache basieren die Ideen der jpg und auch Mpeg-Kodierung. Das machen sich die Encoder zunutze und können eben jene vom Videochip aufgenommenen Daten kleinrechnen. Beim Dekodieren wird der Datenhaufen wieder zu einem Bild restauriert. Der Mpeg-Codec ist aussergewöhnlich effizient, dieser beachtet nicht nur ein Einzelbild, sondern auch die zeitliche Komponente, also Änderungen von einem zum nächsten Bild.

Mein Tip:
Beim Schnitt möglichst unkomprimiert oder mit dem Zielcodec arbeiten. Wenn viele Effekte/Umrechnungen stattfinden, sollte möglichst wenig / un- komprimiert gearbeitet werden. Wenn möglich, die Kodierung einer Spezialsoftware überlassen.

Weblinks:
Wikipedia Mpeg GOP - Bildzusammenfassung
Wikipedia 4:2:2 - Chroma-Subsampling
Wikipedia Divx Mpeg4
Fachwissen und Analyse von Codecs in englisch


1.5 Farbmodelle

Aufgrund der eben (1.4) beschriebenen Wahrnehmung des menschlichen Sehapparats und der Abwärtskompatibilität zum Schwarzweissfernsehen entwickelte man Farbmodelle, die dies widerspiegeln, gleichzeitig als Vorarbeit für die mathematische Bearbeitung dienen. Das Wichtigste ist das YUV-Farbmodell ( Komponentensignal ), welches das Bildsignal grundsätzlich in 2 Signale splittet, nämlich der Helligkeitswahrnehmung und der Farbwahrnehmung. Für die Farbwahrnehmung hat man 2 Signale genommen, damit der ganze Farbraum sauber wiedergegeben werden kann UND eine verfälschungsfreie Rückrechnung vorgenommen werden kann. Das RGB-Farbmodell ist dem additiven Farbmodell entnommen und spielt im Videobereich nur bei der Erstellung von computergenerierten Material ( zB 3D-Animationen, Titelbilder oder Texteinblendungen ) eine Rolle. Freilich wandeln viele Schnittprogramme alle Videodaten intern erstmal in den RGB-Raum um, damit Probleme in der Bearbeitung/Wiedergabe ausbleiben.

Aber Halt ! War da nicht irgendwas mit illegalen Farben und sendefähigem Farbraum ? Ja, das stimmt, aufgrund technischer Beschränkungen darf Schwarz nicht RGB 0/0/0 und Weiß nicht 255/255/255 sein. Das ist besonders zu beachten, wenn Footage im Rechner erstellt wird, wie zB 3D-Animationen oder Elemente in der Bildbearbeitung. Grundsätzlich hat jedes Programm einen Farbraumbeschnitt als Plugin. Dieses Thema wird im Netz und in den Programmen als Broadcast Colors, illegale oder sendefähige Farben geführt.

Weblinks:
Wikipedia YUV
Wikipedia RGB
sendefähige Farben


1.6 Auflösung und Bildwiederholrate

Grundsätzlich sind die Auflösungen der TV-Welt entlehnt. Durchgesetzt im deutschen Raum haben sich Auflösungen wie 720x576px, 1280x720px, 1440x1080px oder 1920x1080px. Weitere Auflösungen sind grundsätzlich Halbierte oder Geviertelte der Originalauflösung. Codecs wie das Mpeg2-Format können alle Auflösungen, die ganzzahlig durch 16 teilbar sind, verarbeiten. In Verbindung mit der Bildwiederholrate ( zB fps ) entstehen die üblichen Videoformate, die man nennt und benutzt, also zB 576i, gleichzusetzen mit SD PAL. 720@25p steht für 1280x720px im Vollbildformat bei 25 Bildern pro Sekunde. Natürlich gibt es Vielerlei "krumme" Auflösungen im Netz, die ihren Ursprung in der größten Datenreduktion bei bestmöglicher Qualität haben. Besonders zu beachten ist die Arbeit mit PAL-Widescreen oder PAL-16:9. Hierbei ist es die gleich Anzahl an Bildpunkten, doch wird die PAR geändert, so dass das Videomaterial bei der Aufnahme gestaucht und bei der Wiedergabe wieder entzerrt wird (siehe auch 1.7). Computererstelltes 16:9-Material sollte eine Auflösung von 1024x576 haben.

oft verwendete Auflösungen:
  • TV PAL - 720x576 - 50i - Codec DV
  • TV NTSC - 720x480 - 60i / 59,94i - Codec DV
  • VCD - 352x288 - 50i - Codec Mpeg1
  • DVD - 720x576 - 50i - Codec Mpeg2
  • HD - 1280x720/1440x1080/1920x1080 - 50i/25p/60i/30p - Codec Mpeg2 oder Mpeg4 ( VC1 AVCHD )

Mein Tip:
Wenn es für eine Fernsehwiedergabe sein soll, bitte auch solche Werte benutzen. Für Videos im Netz sind die Datengrößen im Auge zu behalten.

Weblinks:
Ausführliche Informationen zu PAL und NTSC
Ausführlich die 2.
Wikipedia HD und HDV
DV-Format Informationen in englisch


1.7 Bildseitenverhältnis und Pixel Aspect Ratio - PAR

Das Bildformat der TV-Vergangenheit hatte ein Seitenverhältnis von 4:3, also 4 Teile Breite zu 3 Teilen Höhe, das entspricht der Auflösung von 768x576 Pixel. Aber der aufmerksame Bildbearbeiter hat bemerkt, dass fast alle PAL-Videodateien 720x576px groß sind, was durch die PAR - europäische Norm CCIR-601- zu erklären ist : die einzelnen Bildpunkte werden nicht, wie grundsätzlich im PC-Bereich, quadratisch dargestellt, sondern rechteckig. Daraus ergibt sich auch die PAR von DV-Material ( 1,067 ), die nötig ist, um 720x576 auf 768x576px horizontal zu strecken.

Besonderheit hat auch das HD-Format 1080i erlangt, da es im HDV-Format "nur" eine Auflösung von horizontal 1440px besitzt, obwohl auf dem Fernseher 1920px sein sollen. Hier ist die anamorphe Aufnahme auf 4:3-Chips dafür verantwortlich. Erklärung : Um die komplette Auflösung von Film- und Videomaterial zu bekommen, dabei aber dem Kinoformat näher zu kommen, baute man vor das Objektiv eine Linse, die in der Waagerechten mehr sieht (Zylinderlinse). Man hat auf dem Band eine Aufnahme, wo alles horizontal gestaucht ist. Dieser Aufnahme ist ein Signal beigemischt, dass dem Wiedergabegerät sagt, dass es sich um "gestauchtes" Material handelt, es also wieder entzerrt werden soll. Der Vorteil liegt in der vollen Ausnutzung der Bildpunkte im Gegensatz zu schwarzen Balken oben und unten (Trauerränder), die in das Material eingerechnet werden müssen, somit auch wertvolle Pixel stehlen.

Mein Tip:
Ist es computergeneriertes Material, dann bei PAR 1:1 erstellen lassen, wenn nötig, im Videoschnitt auf das rechte Maß skalieren. Auch bei anamorphem Material die erstellten CG-Daten in PAR 1:1 erstellen.

Weblinks:
Wikipedia Anamorphe Aufzeichnung
Wikipedia Pixel Aspect Ratio
Wikipedia Seitenverhältnis DAR und PAR


1.8 Beleuchtung

Viel Licht = wenig Rauschen, das ist die Kernaussage. Preiswerte Kameras machen gute Bilder, wenn sie viel Licht bekommen, bei unzureichenden Lichtverhältnissen leidet - neben dem wachsenden Rauschanteil - die Farbigkeit und der Kontrast. Das bekommt man auch in der Nachbearbeitung am Rechner kaum mehr raus. Gleichzeitig muss aber betont werden, dass zu viel Licht auch negativ einwirken kann. Die Kamera versucht im automatischen Modus mit Hilfe der Blende und der Verschlusszeit die Aufnahme zu optimieren. Da aber beide Werte - Blende und Verschlusszeit - auch künstlerische Mittel sind, unterscheidet sich die Aufnahme unter Umständen erheblich vom gewünschten Ergebnis. Die künstlerischen Aspekte bleiben den Weblinks vorbehalten.

Weblinks:
Basic - 3 Punkt Ausleuchtung
Beleuchtung - Grundlagen und Theorie
Blende und Verschlußzeit
Die Top 14 Fehler beim Fotografieren - gilt auch für Video
Scheinwerfer selbstbauen
Lichtstärke praktisch betrachtet
Beleuchtungstutorial mit Bildern in englisch


1.9 Filmlook

Mystisch, überbewertet und faszinierend zugleich. Das Erreichen eines Kinolooks mittels "preiswerter" Kamera und einfachen Mitteln ist eine hohe Kunst, die sich aber durch den ganzen Produktionsprozess zieht. Von der Auswahl des Drehstandortes über die Wahl der eingesetzten Lampen und der Kamera bis zur Nachbearbeitung am Rechner. Alles muss auf die beschränkten Möglichkeiten der Kamera abgestimmt werden. Da wäre zum Einen der eingeschränkte Kontrastbereich ( höchstmöglicher Wertebereich zwischen Dunkel und Hell ), zum Anderen das beliebte Spiel mit der Blende und ihrer Eigenheit, Objekte besonders zu betonen, indem die Umgebung unscharf wird ( Schärfentiefe ). Beliebt ist es, dem Film einen farblichen Look aufzuimpfen, ich würde empfehlen, diesen erst in der Nachbearbeitung zu erstellen, damit Aufnahmen nicht als Ungelungen gelten und unter Umständen neu gedreht werden müssen. Wichtig ist es auch, die 35mm-Adapter zu nennen, die es ermöglichen, Objektive aus der Film- und Fotografiewelt auf die Kamera zu setzen. Die folgenden Links gehen in aller Form auf das Thema ein

Weblinks:
Wikipedia Schärfentiefe
Filmlook 1
Filmlook 2
Eigenbau 35mm Adapter Übersicht
35mm Adapter Forum - englisch
Wikpedia Was ist Bokeh


1.10 Deinterlacing

Wenn Halbbildmaterial in Vollbildvideos umgerechnet werden, nennt man es Deinterlacing. Wenn man sich ein Standbild aus einem Halbbildvideo anschaut, erkennt man in bewegten Szenen die Halbbilder, die Zeilen scheinen abwechselnd verrückt zu sein ( Kammartefakte ). Grund für den Einsatz von Deinterlacern sind eben genannte Standbilder, sowie Zeitlupen, Skalierung, Umwandlungen für das Internet und das Erreichen eines Filmlook. Es existieren viele Umsetzungen,mathematische und praktische Ansätze.

Weblinks:
Wikipedia Deinterlacing
Heise Deinterlacing
Deinterlacing sehr ausführlich erklärt, leider in englisch
Deutsche Beschreibung bei Doom9


1.11 Kamera - Einstellungen

Die wichtigsten Einstellungen bei der Videoaufnahme macht man mit folgenden Dingen :
  • Brennweite, Zoom
    Die Brennweite sollte man als künstlerisches Mittel verstehen, nicht nur als technisches Basisutensil.,
  • Weißabgleich
    Der Weißabgleich dient zur Einstellung der Farbneutralität
  • Verschlußzeit
    die Verschlußzeit ist die Belichtungslänge eines einzelnen Bildes ( umso kürzer die V.-Zeit, desto schärfer Bewegung )
  • Fokus und Blende
    die Blende - wenn überhaupt regelbar - gibt Auskunft über die nutzbare Schärfentiefe ( siehe auch 1.9 )

Weblinks:
Fotografie Anfängerkurs - Ein Muß für Videografen
Wikipedia Weißabgleich


1.12 Anschließen - Kabelwirrwarr und Signale

Die einfachste und bekannteste Möglichkeit, ein Wiedergabegerät am Fernseher anzuschließen ist der Cinch/RCA-Anschluß, wo das FBAS/Composite-Signal übertragen wird, gleichzeitig aber auch die Möglichkeit mit der schlechtesten Qualität. Dann gäbe es noch den Mini-Din-Stecker, welcher auf 4 Pins das S-Video-Signal ( auch fälschlicherweise als SVHS-Signal bekannt ) überträgt. Im PC hat diese Buchse meist noch mehr Pins, liegt aber daran, dass dort auch FBAS und möglicherweise Signaleingänge aufgelegt sind. Da werden die Helligkeits- und Farbwerte ( im Gegensatz zum FBAS-Signal ) getrennt übertragen. Dann sollte man auch das RGB-Signal nennen, das aber im TV-Bereich eine untergeordnete Rolle spielt. Der Scart-Stecker ist nur eine Steckerform mit allen Signalen bidirektional drauf ( inklusive Ton ), die aber nicht beschaltet sein müssen. Ein Scartanschluß bedeutet also nicht automatisch das Vorhandensein eines S-Video- oder RGB-Eingangs. Ist eben nur ein genormter Anschluß.

Die hochwertigste analoge Übertragungsform ist das Komponentensignal ( YUV oder YPbPr ). Bei den digitalen Übertragungswegen spielen DVI, HDMI und (HD)SDI eine Rolle. Firewire ist kein Videokabel, sondern ein Datenkabel, denn merke DV-Überspielung ist technisch gesehen ein Kopierprozess, kein Capturing!

Anschlüsse:
  • FBAS oder Composite - Cinch oder BNC-Kabel - Videobereich
  • SVideo - 4poliger Mini-Din-Anschluß - Videobereich
  • RGB - 3 Signalleitungen im Scartstecker - Videobereich
  • RGBS und RGBHV - 4 oder 5 BNC-Anschlüsse - PC-Datenbereich
  • YUV oder YPbPr - 3 BNC oder RCA-Anschlüsse - Videobereich
  • VGA-Anschluß - 15pol.Sub-D - PC-Datenbereich
  • DVI/HDMI - digital genutzte Leitungen - PC und Video
  • (HD]SDI - BNC-Anschluß - digitale Videoübertragung


1.99 Grundwissen-FAQ

? Welches Format benutze ich am Besten, wenn ich auf eine DVD brennen möchte ?
! Optimal wäre 720x576 bei 50Hz Interlaced - Bitrate etwa 6000kBit (siehe 4.2)!

? Welches Format benutze ich für Webvideos ?
! Das kommt auf den Anbieter an, wo man das Video veröffentlichen möchte (siehe 4.4)!

? Meine Videos sehen immer so gestaucht aus, woran kann das liegen ?
! Möglicherweise das falsche Wiedergabeformat gewählt, uU nur den Formatknopf am Fernseher drücken !

? Das Video ruckelt auf dem Fernseher ganz schrecklich, was kann das sein ?
! Entweder ist die Wiedergabereihenfolge falsch herum oder das Bild wurde in der Größe geändert, dann passen die Halbbilder nicht mehr ins Wiedergaberaster. Ich denke, da muss das Material erstmal zu Vollbildern umgerechnet werden !

? Das Video ruckelt ein bisschen, sieht ein bisschen eigenartig aus ?
! Möglicherweise wird ein Vollbildvideo im Halbbildverfahren wiedergegeben, kann man als Filmlook durchgehen lassen !

? Meine Videos lassen sich nicht vom PC per TV-Ausgang auf dem Fernseher abspielen. Was kann das sein ?
! Sind die Kabel richtig gesteckt, ist im Treiber der TV-Ausgang angeschaltet (ATI Theatre-Modus und Nvidia nView) !
Autor
chmee
Aufrufe
2.896
First release
Last update
Bewertung
0,00 Stern(e) 0 Bewertungen

More resources from chmee

Zurück