Effizienzschub für die Produktion

Die diesjährige NAB Show in Las Vegas machte deutlich: Viele innovative Technologien für die Broadcast-Branche sind aus der Hype-Phase heraus gewachsen und präsentieren sich heute als einsetzbare Lösungen, an denen kein Weg mehr vorbei führt. Dazu zählen Cloud-, IP- und Remote-Produktionen, Virtual- und Augmented Reality (VR und AR), Software-, Microservice- und Daten-getriebene Prozesse, künstliche Intelligenz (AI) und Bildverbesserungstechnologien wie High Dynamic Range (HDR).

3
Effizienzschub für die Produktion

Ein Top-Thema auf der NAB Show 2018 war HDR. Zahlreiche Hersteller und Lösungsanbieter hatten hierzu neue Produkte am Start. Einige Beispiele:

Grass Valley stellte zur NAB die Version 9.20 seiner Schnittlösung EDIUS vor, die unter anderem nun um zusätzliche HDR-Videokontrollwerkzeuge und neue Farbräume erweitert wurde. Die neuen Video Scopes ab EDIUS 9.20 bieten umfassende Kontroll- und Analysefunktionen zur Ausschöpfung des jeweils [-][-]optimalen Dynamikumfangs. Sie unterstützen neben REC.709 auch neue Farbräume und bieten die für HDR wichtige Nits-Anzeige. Zusätzlich zu Waveform-Monitor und Vectorscope bietet EDIUS 9.20 nun auch die Darstellung als RGB-Parade, sowie eine RGB-Histogramm-Anzeige, welche im Zusammenspiel mit der Primären Farbkorrektur ein effizientes Feintuning ermöglicht. EDIUS 9.20 unterstützt jetzt zusätzlich die Farbräume ARRI-ALEXA Wide Gamut/Log C und DJI-D-Gamut/D-Log. Durch eine neu eingeführte Verwaltung der Farbraumvorlagen kann der Nutzer eventuell nicht benötigte Farbraum-Presets einfach abwählen und erhält so eine optimale Übersicht, die individuell angepasst werden kann. Modifizierte Vorlagenlisten können exportiert und auf anderen EDIUS Systemen importiert werden. In der Medienverwaltung Mync ist nun ein HDR-Workflow verfügbar. Sowohl die Vorschau, die Storyboard-Bearbeitung als auch der Export werden in HDR unterstützt.

AJA zeigte zum 25. Firmenjubiläum in Las Vegas neue Tools zur HDR-Produktion. Der Echtzeit High Dynamic Range (HDR) und Wide Color Gamut (WCG) Konverter/Frame Synchronizer FS-HDR, bietet mit dem Firmeware-Update v2.5 neue Features und erweitert die HDR und SDR Möglichkeiten mit Echtzeit-Farbübertragungen und -Konversionen für einen einzigen SDR/

HDR-Workflow. Die Io- und Kona Desktop I/O-Lösungen unterstützen HDR10 und HLG zu HDMI für HDR in der Creative Suite. Der Hi5-4K-Plus Mini-Konverter bietet 4K/UltraHD 3G-SDI zu HDMI HDR Display und der HA5-4K für 4K/UltraHD HDMI auf 3G-SDI erlaubt die HDR-Metadaten-Analyse. Als Technologie-Preview zeigte AJA den neuen HDR Image Analyser. Bei seiner Entwicklung arbeitete AJA zum zweiten Mal mit Colorfront zusammen. Ausgestattet mit Waveform, Histogram, Vectorscope und Nit-Level HDR Monitoring-Lösung soll der HDR Image Analyzer die Kontrolle und Analyse von 4K/UltraHD/2K/HD, HDR und WCG-Inhalten in der Produktion, Postproduktion, bei der Qualitätskontrolle und beim Mastering vereinfachen. Im letzten Jahr wurde die Colorfront-Engine bereits in den FS-HDR von AJA integriert.

Avid stellte mit Artist | DNxID sein bislang kompaktestes Desktop I/O-Interface vor. Entwickelt wurde es für den mobilen Einsatz oder wenn Platz am Dreh- oder Produktionsort Mangelware ist. Das Interface erlaubt die Aufnahme, die Ausgabe und das Monitoring von Inhalten bis 4K/UHD-Qualität sowie HDR und bietet darüber hinaus hardwaregestütztes DNxHD- und DNxHR-Encoding. Laptops lassen sich per Thunderbolt 3 oder USB-C anschließen. Außerdem ist ein SDXC UHS-II-Slot eingebaut.

Sony präsentierte an seinem Stand mit SR Live die effiziente Live-Produktion von HDR-Inhalten und die gleichzeitige HDR- und SDR-Produktion. Videotechniker haben so die Möglichkeit, sowohl HDR- als auch SDR-Bilder gleichzeitig in einer vertrauten HD-SDR-Umgebung anzupassen. Mit SR Live für HDR können Videofilmer den Look ihrer Bilder erhalten – unabhängig davon, welches HDR- oder SDR-Format für die endgültige Bereitstellung erforderlich ist. SR Live für HDR-Workflows arbeitet mit S-Log3 und BT.2020, sodass eine höhere Bildqualität und Flexibilität bei der Bereitstellung des Formats für unterschiedliche Zwecke ermöglicht wird, einschließlich 4K/HDR, (PQ (ST 2084) und HLG, 4K/SDR, HD/HDR und HD/SDR. Und zusätzlich zum Sony S-Log3-basierten Workflow verfügt die HDCU/BPU (Basisband-Prozessoreinheit) der Sony Systemkamera über einen HLG-Live-Ausgangsmodus, um eine HLG-End-to-End-Produktion zu unterstützen. Neben dem HDRC-4000-HDR-Konverter zeigte Sony auch HDR-fähige Kameras wie die 4K-/HD-Systemkameras HDC-4300 und den neuen XDCAM-Hand-Camcorder PXW-FS5 II sowie den neuen HDR-fähigen neuen Flaggschiff-Videomischer XVS-9000.

Cloud-basierte Lösungen

Auch neue Cloud-Lösungen waren bei zahlreichen Anbietern zu finden. Bei AVID beispielsweise. Das Unternehmen bietet nun seine Produkte Sibelius, MediaComposer und ProTools als Avid First in der Cloud an. Ross Video präsentierte Streamline.Cloud – die erste MOS-fähige, Cloud-basierte Media Asset Management (MAM) Lösung. Verfügbar ist sie durch monatliche Subscription. Streamline.Cloud ist komplett mit dem Ross news Ecosystem integrierbar, einschließlich Inception.Cloud, für ein komplettes Cloud-basiertes Redaktionssystem.

IBM Aspera führte zur NAB IBM Aspera on Cloud ein, ein neuer gehosteter Service, der nach Angaben des Unternehmens jetzt die schnellste Möglichkeit bietet, um Videoinhalte zu übertragen und miteinander auszutauschen. Dabei würden die Herausforderungen und Probleme bei der File-Transfer-Nutzung in hybriden Cloud-Workflows, bei denen die Public und Private Cloud mit Inhalte-Sicherung auf hausinternen Speichern und Computersystemen kombiniert genutzt würden, überwunden. Das IBM Aspera on Cloud-Verfahren erlaube auch in Multi-Cloud-Umgebungen eine sehr hohe Übertragungsgeschwindigkeit von Files und eine nahtlose Verbindung zu den einzelnen Speicherorten in der Cloud oder On-Premise. Dabei hilft ein neues einfaches User Interface mit dem der Nutzer per Drag-and-Drop einzelne Folder zwischen Datencenter und Cloud-Plattformen hin und her bewegen kann und auch große Files direkt verschickt oder zum Upload bereit gestellt werden können. Der Schutz der Daten ist laut Karen Jaworski, Senior Technical Product Manager von IBM Aspera, dabei durch Service-Authentifizierung beim Log-in, durch spezielle Verschlüs[-][-]selung beim Transfer und Verifizierung der Daten-Integrität weltweit gewährleistet. Das IBM Aspera on Cloud User Interface, betonte sie, würde File Uploads und Downloads, Suche, Sharing, Distribution und Content Management insgesamt deutlich vereinfachen.

Gemeinsam mit Telestream wird Aspera zur Fußball-Weltmeisterschaft 2018 in Russland den US-Sender Fox Sports bei der Produktion unterstützen. Dabei kommen Telestreams skalierbares Multikanal-Video-Capture- und -Processing-System Lightspeed Live Capture im Zusammenspiel mit der Media Processing-Plattform Vantage zum Einsatz. Fox Sports kann so bis zu 60 Kamerasignale als Proxy Feeds remote in Los Angeles nutzen. Interessante Szenen, die man in die Edit Suiten in LA importieren möchte, werden einfach mit In-und Out-Markierungen versehen. Vantage empfängt die ausgewählten Sequenzen sogleich als AVC Intra Files und sendet sie an die Schnittplätze. Auch andere Partnerschaften für Cloud basierte Video-Bearbeitung und File-Transfer stellte Telestream zur NAB vor, so zum Beispiel mit Vigor Systems.

Arvato Systems zeigte erstmals eine On-Demand-SaaS-Edition von VPMS EditMate, einem Produktions-Asset Management (PAM) für Adobe Premiere Pro CC. Arvato will damit die wachsende Komplexität von Projekten und den Administrationsaufwand bei der Content-Erstellung reduzieren und gleichzeitig die kreative Effizienz steigern helfen. EditMate beseitigt komplexe Ordnerstrukturen und kann alle Projekte und Medien in einer einzigen, durchsuchbaren Bibliothek verfügbar machen. Zudem verwaltet EditMate Projektvorlagen und importiert automatisch regelmäßig verwendete Medienressourcen (Logos, Grafiken, Bugs etc.) in Projekte und setzt Sequenzparameter ein. Damit das Arbeiten von überall aus gelingt, spendiert Arvato Systems EditMate eine adaptive Streaming-Engine, die verfügbare Bandbreite so zur Verfügung stellen soll, dass jederzeit ein qualitativ hochwertiger Proxy bereit steht, der Anwendern die volle Adobe Premiere Pro CC-Erfahrung mit den entsprechenden Werkzeugen ermöglicht. Sobald der User die Bearbeitung abgeschlossen hat, können die Sequenzen oder Sub-Clips, die übermittelt werden sollen, einfach „eingecheckt“ werden. Das gesamte Rendering und die HiRes-Erstellung geschehen dann zentral mit dem Original-Material. „Die Cloud ist ein Kernelement im digitalen Geschäftsmodell für jeden, der nach Agilität, Flexibilität und Effizienz strebt. Deshalb freuen wir uns sehr, eine On-Demand-Version von VPMS EditMate präsentieren zu können“, sagte Stefan Eckardt, Head of Product Management [&] Presales, Arvato Systems. Für das On-Demand-Angebot, das über ein intuitives Webportal zugänglich ist, steht eine Testversion von „EditMate“ zur Verfügung. Neben Einstiegspaketen für kleinere Arbeitsgruppen gibt es erweiterte Pakete, inklusive der Features für das Remote-Arbeiten von unterwegs. Zusätzliche Accounts können nach Bedarf monatlich hinzugefügt werden, aber auch Unternehmens-Accounts sowie „private Cloud“-Anwendungen sind möglich.

Big Data und Live-Produktionssysteme

Datentracking und -nutzung in der Live-Sportproduktion war ein weiteres interessantes Thema auf der NAB 2018. Marco Lopez, der neue CEO von ChyronHego, stellte auf der NAB die Produktstrategie des Unternehmens vor, die stark in diese Richtung zielt. Interessant ist in diesem Zusammenhang die neue Partnerschaft zwischen ChyronHego und der Nikon-Tochter Mark Roberts Motion Control Limited (MRMC). Das Player- und Ball-Tracking System TRACAB von ChyronHego wird in diesem Rahmen mit MRMCs Polycam System kombiniert, mit dem in Echtzeit synchronisierte Bewegungen von mehreren Robotic-Kameras realisiert werden können. Die Kombination beider Technologien soll zur Entwicklung innovativer neuer Produkte führen und zu Tracking-Lösungen mit künstlicher Intelligenz. Das soll insbesondere der Sport-Produktion zu Gute kommen. Mit MRMCs neuen Robotic Pod Kamerasystem und TRACAB sollen mehr Möglichkeiten beim Einsatz von ferngesteuerten Roboter-Kameras für den permanenten oder den zeitlich befristeten Einsatz in Sportstätten geschaffen werden (siehe auch Beitrag zur SportsInnovation 2018 in dieser Ausgabe). Mit dem neuen Remote-System kann ein Operator beispielsweise über ein HTML-Interface mit einem Klick bestimmte Spieler auf einem Spielfeld von einer Kamera verfolgen lassen. Angesprochen werden sollen damit große Sport-Ligen, um ihre Produktionen mit neuen Kameraperspektiven zu erweitern, aber auch kleinere Ligen, die ihre Sportveranstaltungen unkompliziert und kosteneffizient produzieren wollen. „Es lässt sich jetzt noch nicht wirklich sagen, in welchem Markt sich diese Lösung besser durchsetzen kann. Das evaluieren wir im Moment”, sagte Jesper Gawell, CMO bei ChyronHego.

Vorgestellt wurden zur NAB von einigen Herstellern auch neue, kosteneffiziente Produktionssysteme. Simplylive präsentierte neben der 16-Kanal- und 4K-Variante des ViBox-Systems und einem physischen Controller für die ViBox SloMo, erstmals die ViBox Mini. Sie bietet hohe Flexibilität und Komfort überall dort, wo schlanke Produktions-Workflows gefragt sind. Mit ihren vier oder acht Kanälen in SDI- oder Streaming-Konfiguration, SSM-Support, geringen Abmessungen und Gewicht ist die ViBox Mini eine günstige Produktionslösung im Rucksackformat. Hierzulande sind die Simplylive-Produkte im Vertrieb von Qvest Media und Broadcast Solutions zu finden.

Ross Video fokussierte sich dieses Jahr auf die Live-Produktion und präsentierte hierzu Produkterweiterungen zu OverDrive und Carbonite Black Solo13. Das Automationssystem OverDrive zusmammen mit dem All-in-One-Produktionssystem Graphite liefert laut Ross CEO David Ross eine sehr effiziente, kompakte, skalierbare, automatisierte Produktionslösung. Graphite beinhaltet einen echten Carbonite Produktionsmischer, XPression Graphik und eine 28-Kanal RAVE Audio Engine. In Kombination mit OverDrive biete Graphite insbesondere kleineren Produktionsfirmen sehr hochwertige, kosteneffiziente Produktionsmöglichkeiten. Der kompakte Mischer Carbonite Black Solo13 wendet sich an eine ähnliche Zielgruppe und ist nun mit mehr I/Os ausgestattet (13 Inputs und 6 Outputs).

Mobile Viewpoint erweitert sein Portfolio mit drei Artificial Intelligence (AI) gestützten Produkten. Sie sollen die Remote-Live-Produktion und -Distribution von Inhalten automatisieren und die Effizienz von Inhalte-Indexierung, -Speicherung und -Suche verbessern. Künstliche Intelligenz sei aus der Hype-Phase heraus gewachsen und biete der Broadcast-Industrie heute viele einsetzbare, praktische Anwendungen, meinte Mobile Viewpoint CEO Michel Bais in Las Vegas. Auch seine Firma adressiert vor allem kleinere Broadcaster und Produzenten.

Automatisierung und Metadatenverwaltung

Das Thema Automatisierung von Produktionsworkflows und Playout stand auch bei anderen Ausstellern im Fokus. Interessant war unter anderem mX Media Exchange, das erste Release einer umfassenden Plattform zur Automatisierung und Orchestrierung von Medien-Workflows, das der Dietzenbacher Softwareentwickler Dimetis erstmals zur NAB präsentierte. Entwickelt wurde es für Content Provider im Broadcastumfeld und Produktionsfirmen. Dimetis mX Media Exchange bietet eine vollständige Verwaltung, Automatisierung und Übertragung großer Dateien mit erweiterter Metadatenverarbeitung für Video- und Audiodateien über ein Web-Interface. mX verwaltet komplexe dateibasierte Workflows und lässt sich mit Systemen von Drittanbietern wie Transcodern, QC-Tools, Workflow-Systemen und Storage- und Ressourcenplanungs-Tools verbinden. Ein erweiterter Metadaten-Editor und -Manager erlaubt den Nutzern, sich ein umfangreiches Set von Metadaten anzeigen zu lassen und dieses zu verwalten. mX sammelt automatisch technische Metadaten und kann redaktionelle Metadaten aus verschiedenen Metadatenquellen aggregieren. Eine grafische Benutzeroberfläche hilft Anwendern, benutzerdefinierte, komplexe Workflows mit Drag-and-Drop-Funktionalität zu erstellen, Regelsätze basierend auf Dateiinformationen (Metadaten, Dateityp, Dateigröße usw.) zu definieren, in der Bibliothek zu speichern, um sie später wiederverwenden zu können, und Systeme von Drittanbietern in den Workflow einzubinden. Weitere Vorteile bieten Monitoring [&] Reporting zur umfassenden 24×7-Überwachung. Benutzer können individuelle Berichte erstellen, die auf abgeschlossenen Übertragungen, Alarmereignissen, übertragenen Volumina, Anzahl der Übertragungen und Berichtszeit basieren. „Mit dem neuen flexiblen Reportingmodul von Dimetis mX Media Exchange können neue Erkenntnisse über die Transfers und deren Verhaltensweisen gewonnen werden. Dimetis mX Media Exchange hilft unseren Kunden, zum Beispiel dem ARD-Playout-Center beim rbb in Potsdam, den Betrieb zu optimieren und damit Aufwand und Kosten zu minimieren, indem es die Metadaten automatisch extrahiert, verarbeitet und die problemlose Integration von Fremdsystemen wie Transcoder, Speicher- und Managementsystemen ermöglicht“, erklärt Dimetis-Geschäftsführer Thomas Will. Rundfunkanstalten wie die ARD hätten Dimetis ermutigt, Lösungen zu entwickeln, die den Workflow, die Betriebseffizienz und die Rentabilität verbessern.

EVS mit Next Generation Live Production Server

EVS stellte sich zur NAB mit einem erweiterten Portfolio vor. Das belgische Unternehmen, seit Jahren Marktführer bei Replay-Server-Systemen, kündigte an, sich breiter aufzustellen und dabei auch verstärkt Software und Microservice-basierte Lösungen einem größeren Kundenkreis anzubieten. Dabei spielt die Automation von Prozessen eine wichtige Rolle. Sie soll laut Sebastian Verlaine, Marketing-Manager von EVS, die Arbeit der Operator bei Produktionen erleichtern und ihnen die Möglichkeit bieten, sich mehr auf kreative Aufgaben zu konzentrieren. Dazu wurde auf der NAB die neue VIA-Technologieplattform vorgestellt, die modulare Microservices und Workflow Engines unterstützen sollen. Die neuesten EVS Produkte laufen bereits darauf.

VIA besteht aus den drei Hauptkomponenten: VIA Flow, VIA Mind und VIA Opengate. Via Flow erlaubt Nutzern den Medientransport im EVS Ecosystem zu überwachen und zu steuern sowie Workflows anwenderspezifisch einzurichten. VIA Mind bietet den EVS-Entwicklern die Möglichkeit, neue Features in EVS-Produkte auf Basis von Artificial Intelligence (AI) und Machine Learning Engines zu implementieren, um Operatoren bei der Automation bestimmter Aufgaben zu helfen. VIA Opengate schließlich erlaubt den Technologie-Partnern von EVS, ihre Systeme mit den EVS-Produkten zu verbinden und Applikationen zu entwickeln, die zu den EVS-Lösungen passen. Den AI-Einsatz mit VIA Mind wurde in Las Vegas am Beispiel des Mehrfachperspektiven-Schiedsrichter-Systems Xeebra 2.0 gezeigt.

Dazu präsentierte EVS auch das IP Fow Routing System SCORE MASTER. Das EVS-System wurde für den Einsatz innerhalb von IP-basierten Live-Medien-Produktionsworkflows entwickelt und bietet die Möglichkeit zur zentralen Orchestrierung, Flow-basiertem Monitoring, Bandbreiten- und Latenz- und Produktions-Kontrolle. Ingenieure haben damit einen besseren Überblick über Quellen und Endpunkte innerhalb eines IP-verbundenen Netzwerkes.

Ein besonderes Highlight bei EVS war zur NAB auch die Präsentation des neuen Live-Produktionsservers XT-VIA. Er gilt als bislang wichtigstes Update der XT-Replay Server-Serie. XT-VIA bietet erweiterte UHD/4K-, HDR- und IP-Einsatzmöglichkeiten mit SMPTE 2110-Support ebenso wie Onboard Connectivity mit dem neuen hochleistungsfähigen XNet-VIA Media Sharing Network. Der neue EVS XT-VIA ist laut EVS der zuverlässigste und schnellste Replay-Server auf dem Markt. Mit bis zu sechs Kanälen für flexible In- und Out-Kombinationen bietet er komplette UHD/4K-Medienkontrolle vom Ingest bis zum Playout. Zusätzlich zur EVS-Loop-Recording-Technologie, On-board XNet SDTI Support und XNet-VIA IP Networking, bietet der XT-VIA Unterstützung von SuperMotion-Kameras und nativem XAVC-4K-Intra-Encoding und -Decoding für Live-Editing, Slowmotion-Replays und Multikanal-Playback mit Server-zu-Server-Übertragungsoptionen.

Gezeigt wurde zur NAB auch das auf der IBC 2017 erstmals vorgestellte All-in-one Live Produktionssystem X-ONE. Das kontextbasierte User Interface des Systems erlaubt einem einzigen Operator, ein Programm mit bis zu sechs Kamerasignalen zu schneiden, Audio zu kontrollieren, sowie Replays und Grafiken zu generieren. Dadurch können laut EVS Produktionskosten deutlich reduziert werden. Zielgruppe für X-ONE sind deshalb vor allem Produktionsunternehmen bei kleineren Sport-Events, die nur über ein beschränktes Budget verfügen.

Virtualisierte Live-IP-Video-Produktion

Virtualisierte Live-IP-Video-Produktion und Kontrollraum-Automation zeigten NewTek, Vizrt und Cisco in einer gemeinsamen Präsentation zur NAB 2018. Eingesetzt wurden dabei NewTeks NVP, ein virtualisiertes 4K-IP-Live-Produktionssystem mit 44 Inputs, und Vizrts kompaktes Kontrollraum-Automationssystem Viz Opus. Beide Lösungen liefen als virtuelle Maschinen in Ciscos VMware vSphere – mit Hypervisor Management auf Cisco Hardware und mit Horizon View Desktop Virtualisierung. NewTek NDI IP-Videostreams verbanden beide Produkte auf einem Netzwerk mit Cisco Nexus 5000 und 9000 Series Switches. „Virtualisierung und Kontrollraumautomation via IP sind die Zukunft der Live-Produktion,” betonte Roger Sherwood, Direktor Business Development, Media Segment, Service Provider Business, bei Cisco. “Die erstmalige Vorstellung eines virtualisierten Kontrollraums zusammen mit NewTek und Vizrt hat viele unserer Kunden sehr interessiert.“

„NewTek ist schon lange davon überzeugt, dass die Zukunft der Broadcast-Produktion auf Software, Computertechnik und Netzwerken basiert. Unsere Forschung und Entwicklung arbeitet seit 15 Jahren an entsprechenden Lösungen. Unsere Vision passt gut zu den Technologie-Strategien von Cisco und Vizrt. Zusammen haben wir ein komplett virtualisiertes Produktionssystem entwickelt und zur NAB erfolgreich zum Laufen gebracht“, betonte NewTek-Präsident und -CTO Dr. Andrew Cross. „Weil wir komplett softwarebasiert arbeiten verfügen wir heute über die einzige wichtige Produktionslösung, die in der Lage ist, virtualisiert eingesetzt zu werden. Kombiniert mit unserer Führungspoitionn bei IP-Video, einschließlich NDI- und SMPTE ST 2110-Support, bieten wir Broadcastern, die ihre Betriebsprozesse optimieren wollen, eine hervorragende innovative Lösung.“

Und Vizrt-CTO Petter Ole Jakobsen erklärte: „Dieser Machbarkeitsnachweis, den Vizrt hier zusammen mit Cisco und NewTek erbringt, zeigt, dass softwarebasierte Tools Live-Produktionen sehr viel flexibler machen können und sich die Broadcast-Industrie damit für die heutigen und die künftigen Anforderungen bestens präparieren kann.“

Eckhard Eckstein