Metadaten sind Geld wert

Seit März 2014 arbeitet das dwerft-Bündnis an einem Forschungsprojekt, an dessen Ende eine Technologieplattform für die Film- und TV-Branche stehen soll, die filebasierte Inhalte so mit Metadaten verknüpft, dass eine verlustfreie, hocheffiziente Behandlung audiovisueller Inhalte über die gesamte Herstellungs- und Auswertungskette möglich sein wird. Mitte April wurden in Potsdam erste Ergebnisse vorgestellt.

13
Metadaten sind Geld wert

Herzstück des Projekts ist die Linked Production Data Cloud (LPDC), wo jeder Begriff bei dbpedia.org über die Web Ontology Language (OWL – der Buchstabendreher ist Absicht) maschinenlesbar hinterlegt und mit einer eigenen URI (Uniform Resource Identifier) versehen ist, die dann mit der LPDC verknüpft wird. Die Idee Informationen nur einmal zentral zu speichern und verschiedensten Anwendungen Zugang zu gewähren, orientiert sich an der Linked Open Data Cloud. Dies bedeutet aber auch, dass der Erfolg des dwerft-Projekts essentiell von der Kollaboration aller Beteiligten abhängig ist. Viele (Meta)-Daten müssen händisch eingegeben werden – etwa während des Drehs – was das Erlernen neuer Routinen und den Einsatz neuer Software erfordert. Beim mittlerweile fast ausschließlich eingesetzten filebasierten Workflow macht sich dies jedoch mehr als bezahlt.

Bereits in der Postproduktion, wenn gut organisiertes Material schneller auffindbar und zu beurteilen ist, und vor allem in der nachgelagerten Verwertung. Gerade Reportagen und Dokumentaraufnahmen mit ihrem hohen Drehverhältnis gewinnen enorm. Das Material lässt sich besser vorsortieren und schneller finden. Die via Metadaten mit sehr exakten Beschreibungen versehenen Aufnahmen lassen sich in Datenbanken einstellen und zur weiteren Verwertung anbieten. Gerade, wenn aus wirtschaftlichen oder zeitlichen Gründen, auf Archivmaterial zurückgegriffen werden muss oder kann, spielt eine gute Verschlagwortung seine ganze Stärke aus. So lassen sich möglichst exakt die Vorstellungen und Wünsche der Macher umsetzen und man ist nicht immer wieder auf die gleichen Bilder angewiesen. „Ein schneller Zugriff auf den richtigen Content ist Geld wert“, sagte Markus Kreisel von der WDR mediagroup digital in der anschließenden Diskussionsrunde. „Aber um das zu erreichen, braucht es eben die Metadaten.“ Auch das Rechtemanagement wird deutlich vereinfacht, da man immer genau weiß, welche Nutzungsarten aktuell für welchen Zeitraum in welchem Territorium lizenziert sind. Natürlich sind auch Live-Sendungen so später effizienter in Form von Best-ofs, Jahresrückschauen und so weiter zu verwerten.

dwerft-Projektleiter Peter Effenberg, sagte zu Beginn der Konferenz: „Es geht darum Material zu beschreiben und zuzuordnen. Im ersten Schritt für den Schnitt; im zweiten für die weitere Vermarktung. Der mit Metadaten beladene ‚Infocontainer‘, mit dem die Bilder ausgestattet werden, ist Geld wert, weil dort alle Infos vorhanden sind.“ Er verwies gleichzeitig darauf, dass die von Vincent TV produzierte ARD-Vorabend-Serie „Am Kap der wilden Tiere“, deren Produktionsleiter er war, die rund 600 Stunden gedrehtes Material nicht in der Effizienz hätte bewältigen können, hätte man nicht peinlichst darauf geachtet alle Metadaten digital zu erheben. Auch der Spielfilm „Love Steaks“ wäre aufgrund seiner Drehweise in Chaos versunken, hätten die Metadaten nicht digital vorgelegen, so Effenberg weiter. Die mit ‚The benefit of linked production data!‘ überschriebene Veranstaltung hatte sich drei Ziele gesetzt: einerseits sollte der Proof of Concept für das Projekt erfolgen; als Zweites sollte der Frage nach Geschäftsmodellen nachgegangen werden, die die Nutzung der Metadaten ermöglichen oder erheblich verbessern und zu guter Letzt wurden vier von sieben Teiltechnologien vorgestellt. Gleichzeitig kündigte Effenberg an, dass die Technologie noch in diesem Jahr in einem echten Einsatz, etwa einer Web-Serie, getestet wird.

„Die Herausforderung bei der Zusammenführung der Daten ist, funktionierende Schnittstellen zu schaffen, da nicht alle Systeme alles gleich interpretieren“, sagte Dr. Harald Sack vom Hasso-Plattner-Institut, der gemeinsam mit Maike Albers von transfermedia production services den Proof of Concept und den Master Use Case der LPDC vorstellte. Grundlage hierfür war ein erster Praxis-Test, für den mit der Filmuniversität Potsdam-Babelsberg ein Kurzfilm gedreht wurde. Ausgangspunkt für jedes Projekt ist auch bei der LPDC das Drehbuch gefolgt von den drehvorbereitenden Planungen. Beide Stationen enthalten bereits eine Fülle an Metadaten, die in den Infocontainer eingepflegt werden müssen. Während die Daten aus der im Test verwendeten Drehbuchsoftware Dramaqueen noch nicht automatisch einlesbar sind, kommuniziert die Software PreProducer über eine API-Schnittstelle, die Daten von xml nach rdf konvertiert, sogar in beide Richtungen. Allerdings müssen hierfür zuvor entsprechende Mappingfiles geschrieben werden. In der weiteren Entwicklung des Verwaltungs-Tools sollen diese dann vorinstalliert sein. Dies bedeutet eine Umkehrung der eingespielten Methodik. Wurde bisher zuerst das Bild aufgenommen und dann die Metadaten auf einen Zettel geschrieben, fängt man heute mit den Daten aus Drehbuch und Vorbereitung an.

Während des Drehs kommen laufend weitere Daten hinzu. Händisch über LockitScript, einer Software für iPads, mit der alle während eines Drehs anfallenden Daten, die bislang auf Papier notiert wurden, aufgezeichnet werden. Diese Daten werden anschließend mit den ALE-Daten der Kamera zu ALE+-Daten verbunden. In der Postproduktion sind über die ALE+-Dateien sämtliche Infos über die einzelnen Takes und ihren Inhalt sofort verfügbar. Dort werden die Daten von Silverstack in Proxys für DaVinci Resolve konvertiert und dann im Avid geschnitten. Die fertigen Inhalte werden als MXF-Files ausgegeben. Allerdings ist das MXF-Format ebenfalls nur ein Container und die eigentlichen Informationen sind darin sehr flexibel angeordnet. Um hier keine Lesefehler beim Austausch zu bekommen, helfen zumindest bei den öffentlich-rechtlichen Sendern die MXF-Profile, die das Institut für Rundfunktechnik (IRT) erstellt hat. Sie sind Bestandteil der TPRF-HDTV-Richtlinien für ARD, ZDF und ORF.

Sind alle Daten eingepflegt und hinterlegt, ist es ein leichtes die Medienbegleitkarte automatisch zu erstellen, ein langes Formular, das bisher mühsam mit der Hand ausgefüllt wird und dadurch fehleranfällig ist. Von dort ist es ein kleiner Schritt zum Rechtemanagement. Hier hat Yovisto, die sich auf eine automatisierte Aufbereitung und Verschlagwortung sehr großer Bild-, Video- und Textbestände für eine zielgerichtete und inhaltsbasierte Suche spezialisiert haben, eine Benutzeroberfläche für die Software rightsmap geschaffen, die sowohl die Volltext- als auch Stichwortsuche erlaubt.

Der ganz große Traum ist jedoch all die Schätze zu heben, die sich in dem ganzen alten Material befinden, das sich in über 100 Jahren Film und Fernsehen angesammelt hat und gar nicht oder schlecht archiviert ist. Das Deutsche Rundfunkarchiv (DRA) hat eine Befundungssoftware entwickelt, die nicht nur den technische Zustand des Materials prüft – also defekte Stellen oder Farbdichte – sondern beim Durchlauf auch ein Proxy anfertigt, damit man sieht was genau auf dem Material zu sehen ist und anschließend eine Handlungsempfehlung abgibt. Was nach wie vor fehlt ist jedoch eine sinnvolle Bilderkennung. Selbst Gebäude lassen sich nur identifizieren, wenn sie vollständig und klar abgebildet sind. Bleibt die Frage nach der Finanzierung. Bei der Serie „Am Kap der wilden Tiere“ hatte die Erhebung der Metadaten die Produktionsfirma bezahlt. „In diesem Falle war es Eigenwerbung. Es ging uns darum zu zeigen, dass man als Produzent ernst zu nehmen ist“, sagt Vincent TV-Geschäftsführer Matthias Martens. „Grundsätzlich soll derjenige zahlen, der etwas davon hat“, sagt Katja Struwe von AllAccessAgents einer Partner-Vermittlungs-Plattform für die Film-und Markenindustrie. Zur Arbeit von AllAccessAgents gehört die Erstellung von exklusiven Material für die Promotion der Markenpartner aber auch für die Film-Promotion. Da hier auch auf Material aus dem Film beziehungsweise von Dreharbeiten zurück gegriffen wird, ist es sinnvoll sehr genaue Informationen über die Inhalte und besondere Momente zu haben. Im Rahmen des F[&]E-Projektes dwerft werden auch die automatisierte Qualitätsprüfung von TV-Produktionen in der Cloud, ein Themendienst für die Verwertung von Filmen, cloudbasierte Editing-Umgebungen und weitere Teiltechnologien entwickelt. Das dwerft-Bündnis besteht aus fünf Verbundprojekten: Produktion, Archivierung, Rechtemanagement, Distribution, Zukunftsforschung und Wissenstransfer. An dem Bündnis sind zehn Partner aus Wirtschaft und Wissenschaft beteiligt. Das Forschungsprojekt ist auf drei Jahre angelegt und wird im Rahmen des Programms „Innovative regionale Wachstumskerne“ aus Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) gefördert. Investiert werden rund acht Millionen Euro in Forschung und Entwicklungsleistungen. Die beteiligten Partner bringen Eigenmittel in Höhe von rund 2,5 Millionen Euro in das Projekt ein, das Bundesministerium stellt rund 5,5 Millionen Euro für die dwerft bereit.

Die Partner sind das Deutsche Rundfunkarchiv, filmwerte, Filmuniversität Babelsberg „Konrad Wolf“, Humboldt Institut für Internet und Gesellschaft (HIIG), Hasso-Plattner-Institut, Interlake Media, IRT, transfermedia production services, WDR mediagroup digital und yovisto. Assoziierte Partner sind PreProducer, Cube-Tec und LockitNetwork.

Thomas Steiger

MB 2/2016

Relevante Unternehmen