81-jähriger Kinski in 3D

Virtuelle Darstellungen und fotorealistische Bilder sind kaum mehr voneinander zu unterscheiden. Dass auch 3D-animierte Darsteller immer echter und lebendiger wirken, zeigte die fmx in Stuttgart. Mit der Digitalisierung der Bilder wieder belebt wird derzeit auch das 3D-Kino.

3

Mit rund 400 Vorträgen, Panels und Workshops, mit Star-Gästen wie Roland Emmerich, dem britischen Regisseur John Boorman und einer stattlichen Zahl an internationalen Topreferenten hat die Stuttgarter fmx-Konferenz für Animation, Effekte, Echtzeit und Content seinen guten Ruf als Plattform rund um die Produktion und den Vertrieb digitaler Bilder untermauern können. Vor allem mit rund 40 Prozent Besuchern aus dem Ausland war die viertägige Konferenz in der ersten Mai-Woche internationaler als jemals zuvor. Am Abschlusstag verriet Hollywood-Regisseur Roland Emmerich, der seinen neuen Spielfilm „10.000 B.C.“ in Stuttgart vorstellte, seine persönliche Sicht zu Visual-Effects und Computer-generierte Bilder. Es sei nicht einfach, Filme von den Studios finanziert zu bekommen, weil diese inzwischen eher in Sequels als in originelle neue Stoffe investierten. Emmerich betonte aber auch, so sehr er die kreativen Möglichkeiten digitaler Bildbearbeitung und Effekte bewundere, könne er sich nicht vorstellen, schon digital oder in 3D zu drehen. Kollege John Boorman („Exalibur“) überraschte mit seinem ersten Animationsprojekt, der Neuinterpretation des „Wizard of Oz“. Weitere Höhepunkte in diesem Jahr: die Präsentationen von Sony zu „Surf’s Up (Könige der Wellen)“ und zu „Spiderman 3“ sowie von ILM zu „Fluch der Karibik 2“.
Das Thema des virtuellen Darstellers oder Charakters in Echtzeit-Animation zog sich wie ein roter Faden durch die 12. fmx in Stuttgart. Fotorealistische Echtzeit-Animation in 3D ist so etwas wie die Königsdisziplin der 3D-Artists geworden, die verstärkt von der Computerspiele-Branche nachgefragt werden. Ziel ist es, immer realitätsnähere und emotionsgeladenere Erlebniswelten auf den Markt zu bringen. Ein weiteres Schwerpunkt-Thema der diesjährigen Konferenz drehte sich um die Digitalisierung der Filmtheater sowie das Comeback des stereoskopischen 3D-Films im Kino, der durch digitale Projektionstechniken heue einen neuen Aufschwung erlebt, der die alten Schwachstellen des 3D-Kinos vergessen lässt.

Digitale Charaktere in Echtzeit
Evident für die fmx 2007 in Stuttgart ist der signifikante Fortschritt in der Animation virtueller Charaktere. Wie brillant solche 3D-Darsteller heute schon in Echtzeit-Anwendungen in den Computerspielen daherkommen, führte zum Beispiel Guillaume de Fondaumière von Quantic Dream vor, der Motion-Capture-Daten einer Schauspielerin in einem eigens entwickelten System animiert hatte. Von glaubhaften Figurendarstellungen und Charakteren mit emotionaler Lebendigkeit hängt in Videospielen viel ab. Je menschlicher die Figuren wirken, desto stärkere Identifikation und Spannung rufen sie bei den Spielern hervor. Viel diskutiert wurden in diesem Zusammenhang Techniken wie „Performance Capture“ oder die auf biomechanischen und kinetischen Erkenntnissen basierende „Dynamic Motion Synthesis“, der es insbesondere um die Darstellung von Emotionen geht.
Wie „Performance Capture“ nicht nur Bewegungen, sondern auch die Mimik des Schauspielers erfasst, demonstrierte George Borihukov, der nach seiner Arbeit an „The Matrix“ zur weltweit größten Spielefirma Electronic Arts wechselte. Das Programm „Dynamik Motion Synthesis“ wurde an der Universität Oxford entwickelt und simuliert die Reaktionen des menschlichen Nervensystems, dargestellt in einem organischen Fluss der Bewegungen.“

Virtuelle Gesichter
Eine internationale Spitzenstellung nimmt in diesem Bereich auch die Forschungsabteilung des Ludwigsburger Animationsinstituts unter Leitung von Volker Helzle ein, die in diesem Jahr ihr Können mit Interview-Sequenzen eines digital wieder belebten 81-jährigen Klaus Kinski unter Beweis stellte. Die Vorführung eines digital erzeugten Darstellers basiert auf einer langjährigen Forschungsarbeit der Ludwigsburger, die im vergangenen Jahr mit dem Deutschen Innovationspreis durch die Bundesregierung gewürdigt wurde. Volker Helzle und sein Team präsentierten schon im Vorjahr auf der fmx die Ergebnisse eines Animationsprogramms, mit dem sich glaubhafte Gesichtsanimationen virtueller Darsteller realisieren lassen.

Einen Schauspieler aus Fleisch und Blut wolle und könne man mit diesem Hilfsprogramm nicht ersetzen, betonte der Leiter des Projektes anlässlich des Innovationspreises, doch eine glaubwürdige 3D-Darstellung des menschlichen Gesichts für eine fiktive oder phantastische Umgebung lasse sich damit schon kreieren, wie sie für Animationsfilme, Cartoons und Videospiele zur Anwendung kommen. Entstanden sind ein auf verschiedene Gesichter übertragbares Toolset sowie eine Internet-basierte Recherchedatenbank, die verschiedene Gesichtsbewegungen und Ausdrücke katalogisiert und beschreibt. Der digitale Baukasten zur Gesichtsanimation, das so genannte „Facial Animation Toolset“ wurde in den Maya-Versionen 6.0 bis 8.0 erstellt.

Das mit dem Innovationspreis ausgezeichnete Gesichtsanimationssystem bildete so auch die Grundlage für das nächste laufende Forschungsprojekt zur dynamischen Animation in Echtzeit, wie sie für Lernprogramme mit interaktiver Anwendung oder für Computerspiele gefragt sind. Was die Ludwigsburger an Kreationsfähigkeit hinsichtlich virtueller Darsteller drauf haben, demonstrierten sie nun mit der digitalen Wiedergeburt des berühmten, seit längerem verstorbenen Schauspielers Klaus Kinski – so wie er heute mit 81 Jahren aussehen würde.

Feine Textur auch im Offline-Rendering
„Uns war schon klar“, betont Volker Helzle, „dass wir hier das Rüstzeug zur glaubhaften virtuellen Darstellung im fotorealistischen Stil besitzen. Wir mussten es nun noch unter Beweis stellen.“ Grundlage für die Kinski-Demo bildete eine von einem Bildhauer modellierte Kinski-Büste: „Da wurden die Kinski-Features herausgearbeitet – die Lippen und die Nase, die eben typisch für ihn sind.“ In einem aufwändigen Foto-Shooting wurde diese Textur in das „Facial-Animation-Programm“ eingebracht. Nun war ein Animator etwa fünf Tage beschäftigt, diesen Daten zu einer Animation zu verhelfen. Die Bewegung des Gesichts und die mimischen Gesichtsausdrücke waren dabei noch das unproblematischste“, betont Helzle, schwieriger seien Prozesse wie Hauttöne oder die feine Faltenstruktur um Nase und Mundpartien herum, wie sie sich etwa beim Lachen herausbilden: „Das sind ungemein komplexe Vorgänge, die sich schwierig auf Animations-Geometrien abbilden lassen.“ Es musste als ein Weg gefunden werden, dem Animator beim Offline-Rendering diese Feinstrukturen darzustellen, die ihm eine Kontrolle ermöglicht, möglichst nahe an der Textur zu arbeiten, wie sie später im Echtzeit-Rendering ausgespielt wird.

Zwei Tage: Digital Cinema
Als zweitägiges Forum angelegt war in diesem Jahr der Digital Cinema Day, an dem man sich über den aktuellen Stand informieren konnte, angefangen von der Produktion über die DI-Bearbeitungsprozesse in der Postproduktion bis hin zur digitalen Vorführung im Kino. Die Ära der digitalen Kinovorführung ist längst angebrochen, wenn auch noch nicht mit einem flächenmäßigen Roll-out. Über die Spezifikationen der so genannten DCI-Normen zur digitalen Vorführung informierte das Fraunhofer Institut, weitere Referenten befassten sich mit digitalen 3D-Vorführsystemen, die das plastische Bild im Kino wieder beleben. Die neue 3D-Kinogeneration kommt (bis zu einer bestimmten Leinwandgröße) mit einem Projektor aus. Die Digitalprojektoren der heutigen Generation sind zumeist schon vorgerüstet für die elektronischen 3D-Applikationen, so dass ein flexibler Einsatz in verschiedenen Hausgrößen durchaus möglich ist. Selbst Synchronität bei Einsatz zweier Projektoren stellt im digitalen Zeitalter kein Problem mehr dar. Wer 3D-Kino zeigen will, hat die Wahl zwischen zirkularen oder linearen elektronischen Polfiltern sowie zwischen passiven oder aktiven Brillen.

Polfilter und Shutterbrillen
Beim Verfahren des US-Unternehmens Real D, der sein System auf der fmx präsentierte, polarisiert ein elektronischer zirkular arbeitender Filter vor dem Projektor die Einzelbilder, wobei die Lichtwellen für das linke Auge links drehend, für das rechte Auge rechts drehend ausgerichtet werden. Im Kino muss eine Silberleinwand installiert sein, der Zuschauer dagegen benötigt nur eine einfache Polfilter-Brille. Die NUVison-Technologie nutzt dagegen die bestehenden Kino-Leinwände. Die 3D-Effekte werden durch aktive Shutterbrillen erzeugt. Die Projektion erfolgt über DLP-Projektoren auf die Leinwand, während die aktiven Shutterbrillen vom Projektor aus gesteuert werden. Ein weiteres Verfahren bringt Dolby gemeinsam mit dem Ulmer Unternehmen Infitec, einer Firmentochter von Daimler-Chrysler, auf den Markt. Das auf der Wellenlängen-Multiplex-Technologie basierende System benötigt keine Silberleinwand und kommt mit leichten passiven Brillen aus. Im Digitalprojektor wird ein speziell entwickeltes Farbenfilterrad eingesetzt.

In einer Case-Study präsentierte Buzz Hayes, Sony Pictures Imageworks, eine stereoskopische Fassung von „Monster House“, und Neil Feldman vom kalifornischen Unternehmen „In-3“ ließ Star Wars wieder aufleben – diesmal in 3D-Bildern. „In-3“ hat die Renderingsoftware „Dimensionalisation“ entwickelt, über die sich 2D-Filme in 3D-Bilder umwandeln lassen. Es ist davon auszugehen, dass schon bald weltweit eine große Anzahl von Kinos über digitale Projektionsanlagen sowie über 3D-Applikationen verfügen wird, um Filme dreidimensional vorzuführen. Dann ist der „dimensionalisierte“ Bestand der Filmgeschichte sicher ein interessantes Geschäftsfeld für die Filmtheater.
Bernd Jetschin (MB 06/07)






Relevante Unternehmen