Mebucom / News / Business / Schneller auf dem Markt
Schneller auf dem Markt

News: Business

Schneller auf dem Markt

TV-Sender und Produktionshäuser sind heute mit neuen hochauflösenden, datenintensiven Bildformaten und zahlreichen Distributionsplattformen konfrontiert. Um ihre Wettbewerbsfähigkeit zu sichern, müssen sie ihre technischen Infrastrukturen mit Speichersystemen und Netzwerken darauf ausrichten. Über die damit verbundenen Fragen diskutierten Branchen-Experten beim gemeinsam von MEDIEN BULLETIN und Quantum veranstalteten Roundtable-Gespräch zum Thema „Herausforderung für Shared Workflow Storage Solutions: 4k, HDR, OTT“ am 3. März in München.

Die Film- und TV-Produktion steht vor großen Herrausforderungen. Immer größere Datenmengen müssen hier verarbeitet, verwaltet, archiviert und distribuiert werden. Ursache dafür sind der Trend hin zu höherer Bildqualität, die Vielzahl existierender Verbreitungsplattformen, aber auch immer preiswerter verfügbare Produktionsmittel. Jedermann kann heute mit einfachsten Mitteln Videos produzieren und Online verbreiten. Um der wachsenden Datenflut Herr zu werden, brauchen Medienhäuser leistungsfähige Storage-Konzepte. Wie sollten die aussehen? Welche Workflows sind dabei gefragt. Wie weit ist man schon mit deren Umsetzung? Was ist in Sachen Shared Storage Trumpf? Was leisten Cloud-basierte Systeme? Welche Rolle spielen Skalierbarkeit, offene Schnittstellen, Sicherheit und Kollaboration? All diese Fragen diskutierte MEDIEN BULLETIN bei dem gemeinsam mit Quantum veranstalteten Roundtable-Gespräch zum Thema „Herausforderungen für Shared Workflow Storage Solutions: 4k, HDR, OTT...“ am 3. März 2016 in München. Die Roundtable-Diskussion fand im Rahmen der Veranstaltungsreihe „MEDIEN BULLETIN Event“ statt.

Impulsreferat

In einem einleitenden Referat machte Dr.-Ing. Rainer Schäfer, General Manager Television vom Institut für Rundfunktechnik (IRT), deutlich was neue hochauflösende Bildtechniken wie UHD (Ultra High Definition) und HDR (High Dynamic Range) für Shared Storage Lösungen bedeuten. „Beim heutigen HDTV sind wir mit Netto-Datenraten von bis zu 2,5 Gbit/s konfrontiert, beim UltraHD-2 System, bei 8k mit bis zu 120 Bildern pro Sekunde und Higher Framerates (HFR), mit Bandbreiten von knapp 100 Gbit/s,“ betonte er. „Bei 4k/UHD-Produktionen haben wir acht bis 29 mal soviel Daten wie bei heutigen HD-Produktionen. Gegenüber SD-Produktionen sind es gar bis zu 100 mal so viel und bei 8k landen wir fast beim Faktor 500.“

Schäfer wies auf die damit verbundenen Schnittstellen-Probleme hin. Traditionelle Koaxialinterfaces würden nur 3 Gbit/s (3G SDI) erlauben. Neuere 6G/8G-Versionen könnten zwar auch 4k/UHD-Systeme abbilden, aber für höhere Datenraten und komplexere Systeme gehe der Trend ausschließlich zu Glasfaser- oder zu IP-basierten Interfaces. „Dort haben wir mit einer Reihe von Standards zu kämpfen, die alle noch nicht etabliert sind. Auch beim Speicher-Thema wird es also die Interface-Diskussion geben“, betonte Schäfer. Eine große Herausforderung sei auch der Daten-Transport insbesondere bei transparenten Signalen. Ein 4k-Kinofilm (90 Minuten, 4:4:4, 12 Bit) benötige einen Speicherplatz von 20 TB. „Will man einen Kinofilm transparent übertragen und hat dabei nur 100 Mbit/s VDSL-Übertragungsbandbreite zur Verfügung, dann benötigt man dafür 450 Stunden. Das ist ungeeignet. Da vertraut man lieber auf den Transport per Harddisk“, meinte Schäfer. In Sachen Speicherkapazität müsse man bei 4k- im Vergleich zu HD-Filmen zumindest von der 16-fachen Datenmenge bei unkomprimierten Signalen ausgehen und bei 8k sogar bis zur 100-fachen. Im Produktionsumfeld, wo meist mit komprimierten Signalen gearbeitet würde, reiche bei UHD/4k-DNxHD-Low-end- bis High-end-Systemen der Bandbreitenbereich von 45 bis 420 Mbit/s, bei anderen Systemen (XAVC, AVC-Ultra) bis 800 Mbit/s. Üblich seien heute im Produktionsumfeld 50 bis 100 Mbit/s. Bei UHD sei hier, je nach Kodierung, also immer noch mit einem drei- bis vierfachen Bandbreiten- und Speicherbedarf zu rechnen.

Als „wesentlicher Knackpunkt“ für Shared Storage Lösungen bezeichnete Schäfer die Architekturen der Speicher. „Im Broadcast-Bereich sind wir dabei, von vertikalen auf horizontale Infrastrukturen zu wechseln. Ziel ist, dass nicht jedes der Systeme seinen eigenen Speicher, sein eigenes Netzwerk, seine eigene CPU mitbringt, sondern dass wir mehr zu horizontalen Schichten kommen und versuchen, ein gemeinsames Netzwerk, einen gemeinsamen Speicher, gemeinsame Serverfarmen für unterschiedliche Systeme einzusetzen. Wir brauchen einen universellen Speicher, der alles abdecken kann, möglichst components-off-the-shelf beziehbar ist und auch ermöglicht, Hersteller auszutauschen.“ Dies sei gerade für crossmediale Workflows wichtig. „Man muss die gemeinsamen Assets zunächst speichertechnisch zusammen bringen, ebenso wie die Management-Systeme für die Materialauswahl. Erst danach erwarten wir eine eher medienspezifische Postproduktion. Hier könnten wir also auch mit konventionellen Systemen weiter denken. Aber dazu gibt es auch unterschiedliche Ansichten“, meinte Schäfer. Das wurde auch im Verlauf des weiteren Roundtable-Gesprächs deutlich.

Horizontale Ausrichtung

Christian Plitt, Channel Manager Medien & Entertainment von Quantum, bestätigte, dass viele Medienhäuser im Storage-Bereich nach wie vor mit Insellösungen und sogenannten Speicher-Silos arbeiten. Er wies auf den Quantum-Ansatz hin, der die unterschiedlichen Anforderungen im Storage-Bereich durch eine horizontale Ausrichtung näher zusammen bringt. „Wir betrachten Video-Workflows als Ganzes“, sagte er. Eingesetzt wird dabei die StorNext-Software, mit der sich klassische Produktionsumgebungen abbilden und Video-Files verwalten lassen. Hier bediene Quantum vier stereotypische Anforderungsprofile: 1. Eine große Menge Daten muss in Echtzeit aufgezeichnet und gesichert werden, 2. Die Daten müssen für den Zugriff von unterschiedlichen Stationen in der Bearbeitung verfügbar gemacht werden, 3. Das Material muss auf verschiedene Plattformen (YouTube, Mediathek, Playout) verteilt werden. 4. Die Daten müssen der Langzeitaufbewahrung zugeführt werden. Plitt: „Quantum versucht diese vier Anforderungsprofile, auch im Sinne der Kosteneinsparung bei den Kunden, enger zusammen zu bringen, um eine individuelle Plattform für den spezifischen Produktionsworkflow im Medienbereich darzustellen. Das ist ein Ansatz der uns von Mitbewerbern unterscheidet. Das unterstützen wir mit verschiedenen Hardware-Systemen, die unter der StorNext-Software mehrere Speicherebenen mit hierarchischem Speichermanagement abbilden. Hierarchisches Speichermanagement bedeutet, dass man die Daten dort, wo man sie braucht, auf leistungsstarken Systemen in Echtzeit verfügbar hat, sie aber auch jederzeit wegräumen kann, um in der Produktion möglichst viel Speicherkapazität für laufende Projekte frei zu haben. Diese unterschiedlichen Speicherebenen werden bei Quantum von StorNext gemanaged. Dadurch kann man teuren Online Speicher entlasten und den verfügbaren Gesamtspeicher kostengünstig erweitern.“ Die Langzeitspeicherung sehe Quantum vor allem durch Object Storage oder Tape-Libraries gewährleistet. Tape sei nach wie vor das günstigste Medium dafür.

Unterschiedliche Workflow-Strategien

In der Diskussion wurde grundsätzlicher Konsenz mit Blick auf die Relevanz von Shared Storage Workflow-Lösungen deutlich. Es zeigte sich aber auch, dass die Unternehmen der beteiligten Roundtable-Teilnehmer durchaus unterschiedliche Strategien dabei verfolgen, basierend auf bereits vorhandenen Installationen und getrieben von ihren wirtschaftlichen Zwängen. Dabei wurde auch wiederholt die Forderung nach standardisierten Verfahren laut und die Unzufriedenheit mit den marktüblichen Software-Lizenzierungsmodellen.

Frank Stephan, Leiter Production Systems von ProSiebenSat.1 Produktion: „Jeder der wirtschaftlich arbeiten muss, prüft derzeit logischerweise die Storage-Anforderungen für 4k-Workflows. Bei uns läuft das im Moment aber noch eher unter dem Motto Forschungsarbeit. Den Einstieg in neue 4k-Systeme überlassen wir erst einmal anderen, auch mit Blick auf die ganzen Standardisierungsfragen und auf die Probleme bei der Signalverbreitung.“ Das Engagement von ProSiebenSat.1 bewege sich eher im Rahmen des XDCAM-Hausformats mit 50 Mbit/s, mit dem man kostengünstig produzieren könne, und von File-Formaten, die qualitativ eher darunter liegen würden. „Wir wissen natürlich, dass wir uns auch nach oben öffnen müssen. Das ist aber nicht nur technologisch eine Herausforderung, sondern wird auch operativ dramatische Auswirkungen haben“, meinte Stefan. Für die nächsten zwei Jahre gäbe es aber keine Pläne 4k-Material zu bearbeiten, geschweige denn zu speichern.

Im Postproduktionsbereich ist die Infrastruktur-Planung der Unternehmen da schon etwas weiter fortgeschritten. Tammo Steinmetz, Geschäftsführer von Studio Hamburg Postproduction: „Unsere Pläne sind relativ konkret. Wir arbeiten in der klassischen Postproduktion mit szenischen Formaten zum Teil schon mit 4k. Das bedeutet aber zum Glück noch nicht, dass wir den kompletten 90-minüter mit dem Drehverhältnis in 4k vorhalten müssen, sondern nur sogenannte Klammer-Teile. Es gibt immer die Notwendigkeit, transparent und höher auflösend zu arbeiten. Bei HDR und HFR tun wir uns zum Teil noch schwer wegen fehlender Vorschaumonitore und den Investitionen, die da noch notwendig wären. Unsere Grading-Monitore können derzeit nur 2k.“

Sehr schnell bei 4k angekommen sei Studio Hamburg Postproduction im Film- und Archivservice und bei der Restauration von Kinofilm in 16 und 35 mm durch die Anschaffung eines Scanners, der 4k abtasten könne. 4k-Material würde in der Postproduktion gerne genutzt, weil sich damit viele Bilddetails viel besser bearbeiten ließen, auch wenn das Produkt am Ende nur 2k oder HD sei. Steinmetz bezeichnete den für 4k nötigen Umbau der Speicher-Landschaft im Unternehmen als „eine enorme Herausforderung“. Die existierende Speicher-Landschaft sei noch sehr heterogen aufgestellt und noch lange nicht so virtualisiert und horizontal ausgerichtet wie das möglich wäre. „Auch bei uns spielt das Thema Investition dabei eine große Rolle. Man muss sehen, was man mit Maß und Schritt für Schritt tun kann“, betonte er. Der anfallende Speicherbedarf wäre „dramatisch“ wenn bei Studio Hamburg Postproduction alle 50 bis 60 Projekte im Jahr, darunter viele TV-Serien und -Movies, in 4k produziert würden. Mit heutigen Mitteln sei das nicht möglich. Wichtiges Thema sei auch die Versionisierung. Schließlich seien bei vielen Filmen diverse Previews, die in unterschiedlichsten Versionen ausgeliefert werden müssten, üblich. Neben größerem Speicherbedarf resultierten daraus auch höhere Workflowanforderungen. „Wenn zwölf Versionen vorliegen, müssen bei einer Änderung alle Files angefasst werden. Insofern sind Ansätze wie IMF (Interoperable Master Format) für uns perspektivisch sehr spannend.“ Laut Steinmetz sollte man eine Speicherstruktur nicht als „notwendiges Übel“ betrachten sondern mehr Basis zum Aufbau neuer Business-Modelle.

Norman Ende, Fachbereichsleiter Postproduktion bei nobeo, erklärte: „Bei uns sieht das ähnlich aus, obwohl wir natürlich ganz andere Geschäftsfelder haben. Von unseren Kunden ist aber noch keiner auf die Idee gekommen, ein großes Studio-Format in 4k zu produzieren. Aber wir sehen sehr deutlich, dass das irgendwann passieren wird. In zwei Jahren vielleicht. Gefragt werden wir wahrscheinlich erst zwei Monate vorher.“ Das Thema Storage gehe bei nobeo derzeit eher in eine andere Richtung. Ende: „Als Vorboten der ganzen 4k-Entwicklung sehen wir in der Produktion die vielen kleinen Kameras mit niedrigeren Bitraten, die uns aber mit ihrer reinen Masse erschlagen. Wir sind mittlerweile mit Produktionen konfrontiert, bei denen man mit 40 Kameras parallel aufzeichnet. Darunter dann vielleicht zehn Go-Pros und zehn Drohnen-Kameras. Die Herausforderung für uns besteht dann darin, die vielen unterschiedlichen Kamera-Signale und Codecs in einem einzigen Workflow mit 1080i zu überführen. Die große Zahl an eingesetzten Kameras hat auch dazu geführt, dass wir mit deutlich mehr Schnittplätzen arbeiten müssen. Ein großes Show-Format wird bei uns mittlerweile mit 15 bis 20 Schnittplätzen parallel betrieben. Wir werden von dieser Seite her an die Bandbreitengrenze bei unserem Storage-Systemen getrieben.“ Bei nobeo warte man noch „auf den großen Sprung“ und bereite sich darauf weniger auf der Server-Seite als vielmehr im Bereich der Netzwerke vor. „Die sind zunächst einmal wichtiger für uns. Wir haben die Erfahrung gemacht, Storage kann man leicht skalieren. Man kann immer ein Array hinzufügen“, meinte Ende.

Beim Red Bull Media House indes ist man schon längst in der 4k-Zukunft angekommen. Hardy Steinweg, Head of Technical Operations & Post Production beim Red Bull Media House, erklärte: „Bei uns wird viel Wert auf hochwertige Videos gelegt. Wir haben deshalb frühzeitig in ausreichend große Speicher-systeme investiert – insbesondere auch mit Blick auf 4k.“ Heute habe man beim Red Bull Media House deshalb keine Probleme was Speicherplatz und verfügbare Bandbreiten angehe. Bei den diversen 4k-Projekten im Haus arbeite man zudem mit Proxy-Workflows in ProRes in der Postproduktion. Wichtige Treiber für 4k seien bei Red Bull Media House die neue globale TV-Plattform Red Bull TV, mit der man auch gegen Marktakteure wie Netflix antreten wolle, sowie der Vertrieb hochwertig produzierter Action-Sport-Inhalte. „Um hier mitspielen zu können, müssen wir massiv in 4k produzieren“, erklärte er. Das Nadelöhr seien dabei die Leitungen. Bei den Produktionen zahlreicher großer Live-Events weltweit arbeite man deshalb mit mittlerweile 100 TB großen Onside-Speichern mit bis zu sechs angeschlossenen Schnittplätzen, wo 4k-Content von abgesteckten Kameras reinlaufen würde. Diese „Speicher-Silos“ seien überall gleich und mit auswechselbaren Schubladen versehen. Nach den Event-Produktionen und der Postproduktion für alle Derivate und Highlight-Geschichten würden diese nach Österreich zur Zentrale gebracht und eine leere Schublade wieder mitgenommen. „So versuchen wir, die Silos gleich zu halten, wo sie gleich sein müssen“, meinte Steinweg.

Als Zentralspeicher dient dem Red Bull Media House eine rund 1,5 Petabyte große Mediabase in Frankfurt. Hier werden alle fertigen Produkte für die weltweite Verteilung vorgehalten. Kopien von den Inhalten liegen in unterschiedlichen Archiven von Quantum und IBM vor. „Das Thema Content Management ist für uns da viel wichtiger als die Bandbreiten-Frage“, berichtete Steinweg. Am Standort Salzburg mit ServusTV habe man zudem noch einen großen Online-Speicher mit dem die verschiedenen Niederlassungen in der Gegend verbunden seien. „Von jedem Schnittplatz aus kann man mit dem großen Speicher arbeiten. Und die Bandbreiten sind auch hier vorhanden, weil wir von Anfang an groß genug gedacht haben. Da gibt es also keine einzelnen Speicherorte mehr.“ Bei Red Bull Media House in Salzburg seien horizontale Infrastrukturen mit Shared Workflow Storage Solutions auch im Nearline- und Offline-Speicher-Sektor schon Realität. „Für die nächsten zwei Jahre haben wir uns hier bereits gut aufgestellt“, sagte Steinweg.

Das gilt auch für Sky Deutschland. „Wir haben sehr früh damit begonnen, uns mit 4k/UHD auseinanderzusetzen, vor allem im Live-Bereich“, sagte Isam Romdhane, Team Leader Media & Database Management des Pay-TV-Anbieters. Der Postproduktionsbereich sei dabei mitgewachsen. Neue kreative Prozesse wie Colorgrading seien entstanden. Dies habe jedoch zu unterschiedlichen Insellösungen geführt. Auch bei der Sendefile-Herstellung existiere eine eigene Insellösung. „Das ist das Problem der Silos in unserem Haus. Man kann gar nicht schnell genug auf die Anforderungen reagieren. Wenn man die nötigen Workflows und den Bandbreiten-Bedarf ermittelt und umgesetzt hat, dann kommen die OTT-Leute und wollen schon wieder etwas Neues“, sagte Romdhane. Größte Herausforderung sei dabei das Content-Management und im Hintergrund natürlich auch die Investition für die Speicher. Romdhane: „Ähnlich wie bei Red Bull Media House besteht bei uns der große Bedarf, eintreffendes Material sofort zu schneiden, zu verwalten und möglichst schnell damit auf Sendung zu gehen. Das stellt nicht nur Speicher-Infrastruktur vor Herausforderungen sondern auch unsere Kreativen. Die müssen erst noch an die neuen Workflows heran geführt werden. Hier findet gerade ein Generationswechsel statt.“

„Bei uns ist das Thema 4k vor allem mit Blick auf die Qualitätsprüfung relevant. Wir sind ja mehr im Distributions-, Prüf- und Veredelungs-Bereich zu Hause und kriegen auch schon einiges an 4k-Material angeliefert“, meinte Thilo Henn, Leiter Transfer & Digital Service bei den Bavariapool Services. Die dabei entstehenden Probleme seien aber ähnlich gelagert wie von den anderen Diskussionsteilnehmern beschrieben. „Wir haben eine gewachsene Speicherstruktur im Haus, wo jedes Silo im Grunde komplett anders ist. Eintreffendes Material müssen wir zunächst evaluieren. Uns steht dabei auch ein 4k-Monitor zur Verfügung, wo wir lange diskutieren mussten, bis der angeschafft werden konnte. Wenn Korrekturen an einzelnen Files anstehen sind wir oft mit dem Insel-Thema konfrontiert. Wir haben kein Storage zur Verfügung, auf die alle zugreifen können, was natürlich extrem wünschenswert wäre. Aber die Investition in dem Bereich ist noch gar nicht angedacht. Heute gibt es noch wahnsinnige Kopierzeiten, die uns das Leben schwer machen.“ Henn weiter: „Wir können 4k-Produktionen umsetzen, aber kämpfen mit dem Problem, Material von A nach B nach C zu kopieren. Auch eine Lieferung von 4k-Material ist über Leitung möglich, weil wir da nach außen hin sehr gut aufgestellt sind. Aber diese Insellösungen sind der größte Stolperstein, den wir haben.“ Auch für sein Unternehmen spiele das Thema IMF derzeit eine große Rolle.

Auch Mido Fayad, Director Broadcast Operations bei CBC Cologne Broadcasting Center, meinte: „Wir sehen 4k-Produktionen als Herausforderung und sind überzeugt davon, dass sie kommen werden.“ 2010 habe CBC ein neues Sendezentrum mit einer starken Vernetzung und komplett filebasiert gebaut. Jetzt sei man im Prinzip dabei, die nächste Stufe zu planen. „Da ist es klar, dass wir dann auch UHD-ready sein müssen und die Postproduktion mit entsprechendem Material umgehen können muss.“ Fayad: „Bis jetzt nennen wir uns Sendezentrum. Zukünftig werden wir mehr ein Bewegtbild-Zentrum sein. Wir denken immer noch sehr stark in linearen und non-linearen Dimensionen. Davon werden wir uns verabschieden müssen. Deswegen braucht man auch integrierte Systeme, die das unterstützen. Das fängt an bei Systemen für die Rechteverwaltung. Alles wird schließlich immer kleinteiliger und komplizierter. Da braucht man einheitliche Systeme, die so etwas abbilden können.“ Mit Blick auf 4k wolle man sich bei CBC dann auch weg bewegen von SDI. „Ich glaube, der Treiber für eine IP-Live-Produktion ist UHD und da gibt es noch viele offene Punkte, die zu lösen sind, was die Standardisierung betrifft. Herausforderungen sind hier Zuverlässigkeit und Kompatibilität. Das beobachten wir sehr genau. Wir gehen davon aus, dass der Umbau bei uns dann 2018 vonstatten gehen wird. Aber wir fangen jetzt natürlich schon mit der Planung an. Fayad. „Bei uns ist heute eigentlich schon alles IP-basierend bis auf den Bereich, wo es um die Verteilung von Live-Signalen geht, also in der Produktion und im Sendeabwicklungsbereich, und da wird es in der nächsten Stufe so sein, dass das auch IP-basierend ist.“

Bei UHD-Workflows brauche CBC natürlich mehr Speicherplatz und deutlich mehr Bandbreiten. Fayad: „Die Herausforderungen dabei sind die gleichen, mit denen wir eigentlich auch heute schon zu kämpfen haben. In den Workflow-Ketten gibt es heute immer wieder Upgrades und Updates, bei den eingesetzten Software-Lösungen. Wo man sich jedes Mal die ganze Kette angucken muss, ob sie noch funktioniert. Beispiel Apple. Da gibt es jedes Jahr ein neues Betriebssystem und wir müssen prüfen, ob es dann noch mit StorNext funktioniert. Solche Schwierigkeiten werden auch künftig nicht weniger werden.“

Cloud als Lösung für Infrastrukturprobleme

Als Speicheroption gewinnt laut Plitt auch die Cloud weiter an Relevanz. „Viele Unternehmen legen heute schon Sicherungskopien von Daten außer Haus auf einem Cloud-Service ab. Mit Q-Cloud bieten wir dazu in Kooperation mit den Cloud-Speicherservices von Amazon einen eigenen Service an, der bereits von einigen großen Broadcast- und Postproduktionsunternehmen genutzt wird“, erklärte er. Dort könne man recht preiswert Daten ablegen. Höhere Kosten entstünden nur, wenn man die Daten zurückholen wolle. Allgemein würde das Thema Cloud zwar überall neugierig betrachtet, Auslagerung in größerem Ausmaß in ein fremd gehostetes Cloud-System würde aber wegen der hohen Sicherheitsanforderungen in Deutschland, insbesondere im Broadcast Bereich, im Moment nicht wirklich als Option gesehen. „Die neuen Cloud-Services haben einen etwas anderen Ansatz. Da geht es nicht so sehr darum, die Cloud als Erweiterung des Bearbeitungsraums zu interpretieren, sondern Daten in der Cloud statt in einer Tape-Library als dritte Sicherheitskopie abzulegen. Das Material wird dabei schon auf dem Bearbeitungsplatz verschlüsselt und anschließend in verschlüsselter Form nur für die Notfallwiederherstellung in der Cloud gelagert.“ Darüber hinaus sehe man bei Quantum in der Broadcast-Welt hauptsächlich Privat-Cloud-Systeme als archivsichere Objektspeicher, die man für Mediatheken, für OTT und für direktes Delivery, entweder direkt nach draußen oder auch innerhalb der Organisation, nutzen könne. Plitt: „So etwas kann man sehr gut als eine Art Extended Online-Bereich einsetzen, um den Teil des Archivs, der für alle in der Organisation verfügbar sein muss, unternehmensweit oder für einzelne Facilities verfügbar zu machen.“ Beim Red Bull Media House sieht man das ähnlich. Die eigene Mediabase in Frankfurt kann laut Steinweg durchaus als Backend einer privaten Cloud betrachten. Jede der 160 Ländervertretungen von Red Bull liefere hierher Videos in sehr unterschiedlichen Qualitäten, die irgendwo gefiltert werden müssten. Steinweg machte jedoch auch klar: „Man kann nicht aus der Cloud heraus direkt schneiden, man muss die Medien-Files immer noch vor Ort haben. Mit anderen Worten: Das Bandbreiten-Problem ist immer noch da. Da sehe ich noch nicht, dass die Cloud in der Produktion tatsächlich eine große Unterstützung ist.“

Mit dem Start von Red Bull TV sei auch der Launch von 23 verschiedene Plattformen für unterschiedlichste Empfangsgeräte von der Xbox bis hin zu mobilen Endgeräten verbunden. Von jedem Clip müssten also erst einmal 23 Versionen erstellt und irgendwo gerechnet werden, um sie dann im OTT-Bereich anbieten zu können. „Die Leute wollen die Clips hier überall und jederzeit sofort sehen und nicht drei Stunden warten bis die Version dann auf ihrem Endgerät läuft. Da kommt dann die Cloud ins Spiel. Solche Rechnungsprozesse brauche ich nicht in der privaten Cloud. Der Schatz ist mein Content, den möchte ich in meiner Höhle haben. Aber wenn es darum geht, ihn anders anzustreichen, dann kann man das auch über eine öffentliche Cloud machen.“ Auch die einzelnen Editions seien letztlich nur Erweiterungen des Original-Contents und können dann auch dort lagern.

„Das Thema Cloud ist bei den Produzenten, die wir bedienen, schon seit Jahren angekommen“, erklärte Ende von nobeo. „Dazu beigetragen haben Avid Everywhere und Adobe Anywhere. Wir haben sofort die Anfragen bekommen, ob es nicht möglich sei, an verschiedenen Standorten zu schneiden. Das ist gefühlt schon drei Jahre her. Aus dem Kopf der Kreativen ist es nicht heraus zu bringen, dass wir noch nicht soweit sind. Die träumen alle davon. Wir sind zudem damit konfrontiert, dass Erwartung der Kunden wächst, dass alle nötigen Transcoding-Prozesse fast in Echtzeit funktionieren. Niemand mag mehr warten. Hier kämpfen wir darum, Kopier- und Transcoding-Prozesse zu optimieren. Als technischer Dienstleister können wir einfach nicht sagen: ‘das dauert jetzt’.“ Die große Herausforderung sei, das Material für die Redaktion innerhalb kurzer Zeit sichtbar zu machen. „Das ist einerseits eine Stelle, wo Cloud für uns sehr wichtig ist, uns aber auch einige Stöcke zwischen die Beine schmeißt.“

Steinmetz berichtete: „Bei uns geht es in erster Linie beim Thema Cloud um Storage. Wir haben viele Niederlassungen über ganz Deutschland verteilt. Heute replizieren wir als Ersatz für klassische FTP-Server Offline-Speicher in der Cloud. Ganz wichtig ist, dass es on premis ist. Das Schreiben die Produktionsverträge vor. Wir können das niemals nach USA geben. Das heißt, wir betreiben die Cloud auch selber. Das war aber auch relativ problemlos von der Einführung her.“

Vom Cloud Computing sei man indes „noch ein Stück weit entfernt“. Für Transcoding- und Farbkorrektur-Prozesse würden nach wie vor noch dedizierte Maschinen zum Einsatz kommen. Stefan von ProSiebenSat.1 Produktion betonte, dass beim Cloud-Einsatz in der Produktion und bei der Wahl externer Rechenzentrum dafür vor allem auch betriebswirtschaftliche Komponenten eine Rolle spielen würden. „Man muss von Cloud-Einsatz wirtschaftlich profitieren können, insbesondere auch mit Blick auf das Thema Time-to-Market.“

Eckhard Eckstein

MB 2/2016

Zurück