Mebucom / News / Events / Digitale Workflows für HD und Kino
Digitale Workflows für HD und Kino

News: Events

Digitale Workflows für HD und Kino

Bereits zum zehnten Mal präsentierte sich Anfang August 2012 der mehrtägige Hands-on-HD-Event in Hannover. Aufgrund des erweiterten Themenspektrums Richtung High Resolution, High Frame Rate und 3D firmierte sie in diesem Jahr erstmals unter dem Namen Beyond Hands on HD.

„Der Übergang von SD zu HD ist weitgehend vollzogen und die Technologie etabliert“, erklärt die neue Nordmedia–Projektleiterin der „Beyond Hands on HD“-Veranstaltung Lisa May. „Daher wollen wir den Blick auch darauf richten, wie die Entwicklung weiter geht und uns den Bereichen High Resolution mit 4K oder auch 8K sowie der Weiterentwicklung von 3D widmen.“ Im Zentrum der Workshops steht der komplette Workflow einer digitalen Produktion sowie die Schulung der Teilnehmer an der neuesten Gerätetechnologie. Unterteilt sind die Kurse in anwendungskategorische Kameraklassen und der Postproduktions-Workshop dazu ist modular aufgebaut. „Wir haben dieses Konzept in diesem Jahr auf fünf Kameraklassen erweitert und diese noch stärker nach den Ausspielungsarten unterteilt“, erklärt May. Neben der Digital-Cinema-Klasse (2K & Beyond) wurde ein zweiter Digital 35-TV-Kurs angeboten, in dem das mit den gleichen digitalen Cinema-Kameras aufgenommene Material zur Ausspielung für HDTV-Broadcast bestimmt war. Ebenfalls für HDTV wurde mit 1/2-2/3-35 Sensor-Optik geübt und bei der „Independent-DSLR & Beyond“-Klasse stand im Vordergrund, mit kleineren digitalen Kameras für die große Leinwand zu arbeiten. „Es gibt relativ preisgünstige Kamerasysteme, mit denen sich mit geringerem Aufwand recht gute Qualität erzielen lässt. Diese Technologie bietet eine Alternative für kleinere Produktionen“, betont May.

„Beyond Hands on HD“ ist eine gemeinsame Veranstaltung der Nordmedia Mediengesellschaft Niedersachsen und Bremen und dem langjährigen Partner, die Rohde & Schwarz DVS GmbH aus Hannover, die vor allem das technische Equipment für die Postproduktion stellt (Ingest, Server, Playout). Das Konzept aus Testlabor, Schulung, zweitägiger Hands-on-HD-Tagung sowie Netzwerkveranstaltung wird von zahlreichen Sponsoring-Partnern unterstützt. Die Nordmedia kann dafür Mittel aus dem europäischen Strukturfonds EFRE aus Brüssel aufwenden.

Eine zweitägige Tagung zum Event wurde in Kooperation mit der Fernseh-Kinotechnischen Gesellschaft (FKTG) sowie der Hochschule Hannover durchgeführt. Zum Auftakt beschäftigte sich Stefan Albertz von Rohde & Schwarz DVS Produktion in seinem Vortrag mit höheren Bildraten wie 48 fps oder 60 fps für die 3D Produktion. Die höhere Bildrate kann vor allem Probleme bei der Produktion von Stereo 3D-Filmen beheben helfen, die sich bei schnellen Kamerabewegungen und auch Bewegungen im Bild ergeben. Die unschönen Flicker- und Stotter-Effekte erklärte Stefan Albertz aus der Wahrnehmungsphysiologie des menschlichen Auges. Erst bei einer Rate von 60 Bildern löse sich das unschöne Ruckeln auf. Albertz, der auch bei der Produktion „Pina 3D“ von Wenders mit gearbeitet hatte, berichtete, dass die schnellen Bewegungen der Tänzer ein großes Problem für die Produktion dargestellt hatte. Etwa wenn die Arme ausschweiften, waren auf einmal mehrere Arme zu sehen. Auf eine höhere Bildrate zu gehen, bot sich noch nicht an, also entschied sich das Team, alle Quer- und Kreuzbewegungen über die Breite des Bildes zu vermeiden – schränkte sich also in der Bewegungsfreiheit im Raum deutlich ein. High Frame Rates, wie es von großen Hollywood-Produktionen und Regisseuren bereits realisiert wird, ist eine Lösung des Problems. Für Kameras und inzwischen auch Projektoren mit integriertem Mediablock stellt die höhere Frequenz mit dem größeren Datenaufwand kein Problem dar, allerdings existiere noch kein internationaler Standard für die High Frame-Technologie. Nicht ganz problemlos seien höhere Bildraten bei Stereo 3D in der Postproduktion, da sich das Datenvolumen vervielfacht. Bei 60 fps könnten nicht mehr alle Echtzeitsysteme schneiden, weiß Albertz. In der Postproduktion bedeutet es auch längere Render- und Übertragungszeiten bei der Produktion der DCPs.

Peter Jacksons Fantasy-Verfilmung „Hobbit“, die Ende des Jahres weltweit ins Kino kommt, wurde komplett in 48 fps gedreht. Jackson ist begeistert von den flüssigeren Bildbewegungen in 3D. Deshalb entschied er sich auch, einen zehnminütigen Ausschnitt vor einigen Wochen bei der Comecon in den USA zu zeigen. Die Reaktionen in den Internetforen stießen sich aber an dem Look der Szenen, moniert wurde der zu klare Live-Charakter der Bilder, die eher an die BBC erinnerten als an die Ästhetik von „Herr der Ringe“. Dass manche Stellen zu dunkel, andere wieder zu hell empfunden wurden, hing offenbar damit zusammen, dass die gezeigten Ausschnitte noch nicht komplett digital endbearbeitet waren. Jackson erklärte auf der offiziellen Facebook-Seite, dass diese Technik gut für 3D sei und durch die Reduzierung der Flickereffekte auch für die Augen viel angenehmer. Klar ist, sofern die Kinos bis Ende des Jahres noch nicht umgerüstet sind für die höhere Bildrate, wird eine auf 24fps zurück gerechnete Version vorgeführt.

Disparität als entscheidender Faktor für 3D

Technisch wird die Produktion von Stereo3D besser beherrscht denn je. Doch der kreative Umgang mit dem Stilmittel der Tiefengestaltung steht eher noch am Anfang der Entwicklung. Dies wurde auch auf dieser Tagung wieder deutlich wie beispielsweise bei dem Referat „S3D als cinematographisches Instrument“ von Alke Marianne Schermann. Gemeinsam mit Studenten der Münchner HFF hat die Kamerafrau die so genannten S3D-Regeln oder Glaubenssätze überprüft – Regeln wie schnelle Bewegungen gelte es zu vermeiden oder auch schnelle Schnitte, weil dadurch der 3D-Raum auseinander falle sowie dass in zu dunkel ausgeleuchteten Räumen 3D-Informationen verloren gehen. Gemeinsam mit ihren Studenten kam Schermann zu dem Ergebnis, dass die Parallaxenverschiebung eben nur ein Indikator für die räumliche Inszenierung darstellt. Ein entscheidender Faktor für die Wirkung von 3D sei die Disparität. So hänge die Tiefen-Wirkung auch stark von der Lichtsetzung ab. Bei einem flachen Licht entfalte sich nur eine flache 3D-Wirkung. Nicht umsonst sind Lichtsetzung und Schärfenverlagerung die wesentlichen Stilmittel für die Tiefe im zweidimensionalen Bild. Das ist offenbar im stereoskopen Bildraum auch so.

Der Hype um die neue Stereobild-Generation ist wieder abgeflaut, schon grassiert ein wenig die Angst, 3D sei einmal mehr nur eine vorübergehende Erscheinung. Dass die Industrie daran wenig Interesse hat, machte allerdings Kathleen Schröter vom 3D Innovation Center in Berlin deutlich. Die neue Einrichtung am Fraunhofer Heinrich Hertz Institut in Berlin wolle über Forschung und Netzwerke für eine nachhaltige Entwicklung der Stereo-Produktion sorgen. Der offizielle Startschuss wird am 4. September mit einem 3D Innovation Day in Berlin gegeben. Als Höhepunkt dieser Kick-off-Veranstaltung ist eine 3D-Vorführung mit 14 Projektoren auf eine großflächige 180-Grad-Leinwand vorgesehen.

Qualitäts-Standards für 3D-Konvertierung

Vor allem der Blu-ray Markt verlangt nach 3D-Content. Dass hierbei die 3D-Konvertierung eine gewichtige Rolle spielt, machten Marc Briede und Oliver Bock von der Hamburger Chroma Media GmbH deutlich. 3D-Konvertierungen kommen auch schon bei 3D-Produktion ins Spiel, wenn etwa die Riggs zu groß sind für das Set oder auch bei Kameradefekten, wenn ein Nachdreh zu aufwendig erscheint. Briede: „Alle Punkte im Bild haben eine Parallaxe. Dadurch sehen wir 3D. Diese Parallaxe lässt sich auch künstlich erzeugen“. Die bei 3D-Live-Produktionen zum Einsatz kommenden Echtzeit-Konverter arbeiteten nach der Methode, eine schüsselartige Wölbung in den Hintergrund zu bauen, um auf diese Weise einen 3D-Effekt zu erzeugen, erklärte Briede. Diese Technik werde hauptsächlich für Sportübertragungen eingesetzt und komme für die Filmpostproduktion weniger in Frage. Die Konvertierung in der Post arbeite nach dem Prinzip, jedem Element eine Tiefe zuzuweisen. Dies erfolge derzeit grundsätzlich nach zwei Methoden, wie Oliver Bock ausführte. So ließen sich einzelne Elemente ausschneiden und verschieben, um räumliche Disparitäten zu generieren. Dieses Verfahren stoße allerdings schnell an seine Grenzen bei komplexen Bild-Texturen. Chroma ziehe daher den Einsatz von Disparity Maps oder auch Depthmaps vor, mit denen für alle Elemente die jeweiligen Tiefenwerte zur Umwandlung gerendert werden können. Das Zuweisen der Tiefe mit diesem Verfahren sei recht problemlos, erklärte Bock. Ein 90minütiger 2D-Film ließe sich in zwölf Stunden in einen 3D-Film umwandeln. „Aber wir haben für einen 30sekündigen Spot auch schon vier Stunden gebraucht“. Das heißt, die Konvertierung kann viel leisten, aber Zeit und Budget entscheiden über die Qualität. Vor allem der Blu-ray-Markt verlange derzeit nach 3D-Content, berichtete Chroma-Chef Jürgen Schaum. Bei solchen Aufträgen werde der Akzent eindeutig auf den 3D-Effekt gelegt. Soll es sehr gut aussehen, müssten auch die Texturen entsprechend bearbeitet werden, wozu wesentlich mehr Aufwand erforderlich sei. Schaum mahnt für diesen Markt dringend Qualitätsstandards an, durch die der Verbraucher eine Chance erhält, billig von aufwendig konvertierten Produktionen zu unterscheiden.

Digitale file-basierte Broadcast- und Produktionslösungen verlangen nach intelligenten Archivierungs- und Datenmanagement-Lösungen. Dazu gab es auf der Hands-on-HD-Tagung zwei Vorträge: Jörg Houpert von der Bremer Cube-Tec International GmbH referierte zum Thema „Automatisierung und Qualitätsüberwachung bei der digitalen Langzeitarchivierung von Film“. Neu im Markt der digitaler Archivlösungen ist das Bremer Unternehmen Speicher M1, das Joop Flack und Peter Flory vorstellten.
Bernd Jetschin
(MB 09/12)

Zurück