Adobe hebt KI-Leistung auf ein neues Niveau

Anfang des Jahres stellte Adobe mit Firefly ein regeneratives KI-Modell vor, das branchenweit für Aufsehen sorgte. Nur wenige Monate später präsentiert das Unternehmen aus San José, Kalifornien (USA), auf der IBC neue KI-basierte Lösungen, die Kreativen einen echten Mehrwert in ihrer täglichen Arbeit bieten.

76
After Effects Demo am Stand von Adobe auf der IBC 2023
After Effects Demo am Stand von Adobe auf der IBC 2023

Der Stand auf der IBC 2023 ist einladend und angenehm entspannt beleuchtet – an einzelnen dreieckigen Ständen, die nach Themen geordnet sind, bieten Adobe-Expert*innen Demos an. An jeder Ecke des in Adobe-Rot gehaltenen Messeauftritts gibt es etwas Neues zu entdecken. „Wir wollen die Standbesucher*innen einladen, sich hier wirklich einmal umzuschauen“, erklärt Paul Saccone, Senior Director Product Marketing bei Adobe, den Standaufbau bei einem Rundgang.

Paul Saccone

Fast alle Themenbereiche haben eine KI-Komponente, denn KI ist für Adobe auch auf der größten europäischen Broadcast-Messe das Top-Thema schlechthin. Dabei ist KI für Adobe nicht neu. Unterstützende KI, die bei Adobe unter dem Namen Sensei läuft und bereits in vielen Produkten eingesetzt wird, gibt es schon seit mehreren Jahren. „Neu ist der generative Teil, der etwas aus dem Nichts erschafft. Adobe ist seit Jahren führend im Bereich der künstlichen Intelligenz und jetzt, wo die generativen Funktionen online sind, ist das ein echter Wendepunkt“, sagt Saccone. Ein Wendepunkt vor allem deshalb, weil die generative KI die unendlichen Möglichkeiten der Technologie am besten demonstriert und neue Ideen in den Köpfen der Kreativen entstehen lässt. Nachdem jeder mindestens einmal ChatGPT ausprobiert hat, gibt es Hunderte von Anregungen, wie KI-Tools den Designprozess unterstützen können. Deshalb hat sich Adobe entschlossen, eng mit der Community zusammenzuarbeiten. Ein spezielles Programm hilft dabei, den Input der Pro-Anwender*innen zu streamlinen. „In diesem Jahr haben wir mit mehr als 1.000 Pro-Editor*innen und Motion Graphics-Künstler*innen gesprochen, um Feedback zu erhalten und sie zu fragen, was sie sich wünschen und was ihren Workflow verbessern würde“, erklärt Saccone und fährt fort: „Jetzt gehen wir durch den Prozess der Priorisierung, um zu sehen, was wir kurzfristig und was wir langfristig tun können. Denn einige dieser Dinge sind komplexer als andere. Aber ja, für uns geht es wirklich darum, mit den Pro-User*innen in Kontakt zu treten und herauszufinden, was für sie den größten Unterschied macht. Und das sind die Dinge, an denen wir arbeiten.“

Premiere Pro

Auf der IBC sind die Früchte dieser Zusammenarbeit zu sehen. Für die NLE-Software Premiere Pro wurden die beiden Features Enhance Speech und Text-Based Editing konsequent weiterentwickelt. 

Enhance Speech nutzt künstliche Intelligenz, um Hintergrundgeräusche zu entfernen und die Qualität schlecht aufgenommener Dialoge zu verbessern. Über einen Schieberegler kann ein Teil der Hintergrundgeräusche in die Mischung integriert werden, um einen authentischen Klang zu erzielen. „Enhance Speech isoliert den Dialog in einer lauten Umgebung wie hier auf der Messe mit vielen Hintergrundgeräuschen, reduziert diese Hintergrundgeräusche und hebt den Dialogpegel an, so dass die Aufnahme auch in lauten Umgebungen richtig gut klingt. Fast wie von Zauberhand“, sagt Saccone.

Auch die mit dem HPA Engineering Excellence Award ausgezeichnete Funktion Text-Based Editing, mit der Anwender*innen Rohschnitte auf Textbasis erstellen können, wurde weiter verbessert. „Seit der NAB haben wir viel Kundenfeedback gesammelt und einige der am häufigsten gewünschten Funktionen implementiert. Zum Beispiel die Füllworterkennung. Wenn ich also eine zu lange Pause mache, kann man diese jetzt automatisch erkennen und einzeln oder alle Pausen auf einmal löschen“, erklärt Saccone.  

Neben den beiden großen Updates hat Adobe auch die Performance der Timeline optimiert. Das Unternehmen spricht von einer fünffachen Leistungssteigerung – natürlich abhängig vom verwendeten Computer. „Und dann gibt es noch viele andere kleine Dinge, die wir in Premiere Pro eingebaut haben, die einem als Cutter*in das Leben leichter machen. Zum Beispiel die Projektvorlagen. Damit muss man seine Projekte nicht jedes Mal neu einrichten, wenn man immer eine ähnliche Struktur verwendet“, freut sich Saccone.

After Effects

Auch die Compositing- und Animationssoftware After Effects wartet in der Beta-Version mit Neuerungen auf. Die wohl wichtigste ist der KI-gestützte Roto-Pinsel. Schwierig zu isolierende Objekte wie überlappende Körperteile, Haare und transparente Flächen können dank eines völlig neuen KI-Modells im Roto-Pinsel-Werkzeug vom Hintergrund getrennt werden. Editor*innen, Motion Designer*innen und VFX Artists können damit stundenlanges, mühsames Rotoscoping vermeiden.

Eine weitere Neuerung ist der sogenannte True 3D-Arbeitsbereich in After Effects. „Native 3D-Modelle lassen sich nun direkt in After Effects importieren, schattieren und rendern. Außerdem können 2D- und 3D-Assets im selben Raum bearbeitet werden. Es ist wirklich erstaunlich, dass man ein Modell aus Substance 3D in After Effects importieren und in 3D weiterbearbeiten kann“, sagt Saccone.

Frame.io

Abseits der KI-Entwicklungen weist Saccone noch auf Neuerungen bei Frame.io, einer Lösung für Video-Freigabeprozesse und Camera-to-Cloud, hin: „Wir haben für unsere Unternehmenskund*innen etwas hinzugefügt, das wir Storage Connect nennen. Damit können Kund*innen den AWS S3-Speicher, den sie bereits haben, mit Frame.io nutzen.“ Storage Connect soll später in diesem Jahr für Frame.io Enterprise-Kund*innen verfügbar sein.

Auch zu Frame.io gab es auf der Messe Neuigkeiten

Darüber hinaus setzt Adobe weiterhin auf die Verbreitung von Frame.io-kompatiblen Geräten. So hat Atomos mit der Ninja und der Ninja Ultra zwei neue Camera to Cloud kompatible Geräte auf den Markt gebracht. In Kombination mit einem Atomos CONNECT Modul können Videoteams 10bit 4K H.265 Assets aufnehmen und nach jeder Aufnahme automatisch auf Frame.io zur Weiterverarbeitung hochladen. „Auch die neue Großformatkamera von Fujifilm, die GFX-100ii, unterstützt bereits Frame.io“, so Saccone.

Am Ende des Rundgangs blickt Saccone voller Vorfreude in die technologische Zukunft. Angst, dass KI die Kreativität negativ einschränken könnte, hat er nicht – im Gegenteil: Er sieht ein neues Zeitalter anbrechen. „Als wir vor 30 Jahren mit Photoshop anfingen und das Vektorformat PostScript einführten, dachten auch alle, das würde den Künstler*innen und der Industrie schaden. Stattdessen entstanden völlig neue Arbeitsweisen, und die neuen Werkzeuge ermöglichten es den Menschen, kreativer zu sein als je zuvor.“ 

Außerdem ermögliche KI vielen Leuten den Zugang zu ehemals komplexer Technologie, sagt Saccone und zieht wieder einen Vergleich in die Vergangenheit: „Vor 20 Jahren war es nicht unbedingt möglich, sich komplizierte und teure Schnittsysteme und Kameras anzuschaffen – Filmemacher*in zu werden, war nicht so einfach. Heute ist das anders und es wird spannend sein zu sehen, was ein größeres und vielfältigeres Publikum mit der Technologie von morgen anstellen wird.“