Weniger „Mouse Miles”, mehr kreative Freiheit

Adobe hat auf der NAB wieder eine Reihe innovativer Technologien vorgestellt. Kyle Gesuelli verrät beim Standrundgang, warum KI ein dominierendes Thema ist.

27
Adobe stellte auf der NAB wieder viele neue Technologien und Tools vor

Adobe hat auf der NAB 2024 wieder eine ganze Reihe neuer Innovationen vorgestellt. Dabei fällt auf, dass sich das Unternehmen aus San José in Kalifornien im Wesentlichen auf zwei Fokusthemen konzentriert, die sich durch das gesamte Produktportfolio ziehen: Zum einen das Thema Künstliche Intelligenz und der Versuch, Kreativen Werkzeuge an die Hand zu geben, mit denen sie effektiver, schneller und einfacher arbeiten können. 

Zum anderen geht es darum, bestehende Tools bestmöglich zu integrieren und die Funktionalitäten dort zur Verfügung zu stellen, wo sie benötigt werden – auch hier ist das Stichwort „Effizienzsteigerung”. 

Kyle Gesuelli, Senior Director of Product Marketing bei Adobe

Kyle Gesuelli, Senior Director of Product Marketing bei Adobe, zeigt bei einem Rundgang über den Stand auf der NAB 2024 die wichtigsten Neuerungen und erklärt, warum Adobe so viel F&E in die Entwicklung von KI-Werkzeugen investiert hat: „Wir stellen fest, dass Kreative mehr Inhalte in kürzerer Zeit als je zuvor produzieren müssen. Wie können wir also die mühsamen Aufgaben in ihrem Prozess mit den besten verfügbaren Werkzeugen reduzieren? Wir glauben fest daran, dass KI uns schon heute einen Großteil dieser Arbeit abnehmen kann.”

AI-enabled audio workflows in Adobe Premiere Pro

Eine KI-basierte Neuerung, die Adobe auf der diesjährigen NAB vorstellte, waren die überarbeiteten Audio-Workflows in der Schnittsoftware Premiere Pro. Ziel bei der Entwicklung der neuen Workflows sei es gewesen, den Weg, den die Maus eines/einer Editor*in bis zum fertigen Audioschnitt zurücklegt, zu verkürzen und damit Zeit zu sparen. Interne Tests hätten gezeigt, dass die „Mouse Miles” um bis zu 50 Prozent reduziert werden konnten, so Gesuelli. 

„Wir hören in unserer Community immer wieder, dass der/die interdisziplinäre Editor*in zunehmend an Bedeutung gewinnt. Er/sie allein ist für die Produktion von Inhalten verantwortlich, sei es für soziale Netzwerke oder für Markenwerbung. Für  Colorist*innen, Tontechniker*innen und Grafiker*innen ist oft kein Budget mehr da. Was unsere Kund*innen also wollen, ist eine End-to-End-Lösung für all ihre Video-Bedürfnisse. Im Audiobereich gibt es natürlich Audition oder Pro Tools. Aber wir wollten die wichtigsten Audiofunktionen, die die meisten Cutter*innen ständig benötigen, direkt in Premiere Pro zur Verfügung stellen.”

Adobe-Standbesucher konnten die neuen KI-Funktionen direkt testen

Zu den neuen Funktionen, die derzeit in einer Betaversion getestet werden können und im Mai als neue Version verfügbar sein werden, gehört das Sound-Badge mit Audio-Kategorie-Tagging-Funktion. Die KI markiert Audioclips automatisch als Dialog, Musik, Soundeffekt oder Geräuschkulisse und fügt ein neues Icon hinzu. „Ein Klick darauf öffnet das Essential Sound Panel mit allen für die Kategorie relevanten Werkzeugen”, sagt Gesuelli.

Ein weiteres Feature, auf das Gesuelli eingeht, ist Adobes KI-gestütztes Tool „Sprache verbessern“, das unerwünschte Geräusche entfernt und schlecht aufgenommene Dialoge verbessert: „Mit Sprache verbessern kann man Hintergrundgeräusche lauter oder leiser machen. Wenn die Hintergrundgeräusche in einem Video zu laut sind, wie zum Beispiel bei einem NAB-Interview, können sie nachträglich authentisch reduziert werden. Definitiv ein Tool, das für Aufsehen gesorgt hat”.

„Für Premiere Pro zeigen wir auf der NAB auch ein Audio-Feature namens Remix”, sagt Gesuelli. Remix basiert auf Adobe Sensei und wurde entwickelt, um ein Musikstück an die Länge einer Szene anzupassen. „Mit Remix kann man eine vorhandene Audiospur nehmen und sie direkt an den Schnitt anpassen. Das bedeutet, dass die Audiospur so überarbeitet wird, dass sie zeitlich zum Videoschnitt passt. Stundenlanges Schneiden, Rippen, Überblenden und Vorhören gehören der Vergangenheit an”, erklärt Gesuelli.

Der Austausch mit der Community sei für Adobe enorm wichtig, um Produkte maßgeschneidert weiterentwickeln zu können, so Gesuelli.

Video Model für Adobes generative KI Firefly 

Neben den KI-unterstützten Audio-Tools in Premiere Pro stellte Adobe auch Neuerungen bei Adobes generativer KI Firefly vor. Während im letzten Jahr vor allem Grafikdesigner*innen von neuen Funktionen in Photoshop profitierten, sind es in diesem Jahr Videoeditor*innen, die mit Premiere Pro arbeiten. So kündigte Adobe kürzlich ein neues Video-Modell von Firefly an, das zum Start vier neue Werkzeuge mitbringt: Entfernen und Hinzufügen von Objekten, Generatives Erweitern und Text to B-Roll.

Generatives Erweitern fügt Frames zu einem Clip hinzu, um ihn zu verlängern. Dies soll es Cutter*innen erleichtern, Schnitte perfekt zu timen und weiche Übergänge zu erzeugen. 

Die regelmäßigen Präsentationen zogen die Aufmerksamkeit vieler Messebesucher auf sich.

Auch die Funktionen Object Addition und Object Removal ermöglichen den Editor*innen genau das, was sie beschreiben. Objekte können über mehrere Frames hinweg hinzugefügt, ersetzt oder entfernt werden. „Wir alle haben es schon erlebt, dass ein Boom-Mikrofon einfach in die Aufnahme gehalten wurde. Jemand hat während des Drehs Kabel auf dem Boden liegen lassen und man merkt es erst in der Postproduktion und will es entfernen. Das ist jetzt mit einem Klick über mehrere Frames hinweg möglich. Mit Object Addition kann man zum Beispiel ein Bild an die Rückwand hängen oder eine Obstschale auf den Tisch stellen. So lassen sich Szenen viel dynamischer und interessanter gestalten”, meint Gesuelli.

Wer noch einen Schritt weiter gehen möchte, kann mit Text to Video komplett neues Filmmaterial direkt in Premiere Pro erstellen. Entweder über die Kommandozeile oder durch das Hochladen von Referenzbildern. Diese Clips können zur Ideenfindung und Erstellung von Storyboards oder zur Erstellung von B-Rolls zur Ergänzung von Live-Action-Material verwendet werden. 

Integration von KI-LLMs Dritter und Content Authenticity Initiative

Wer neben dem Videomodell von Firefly weitere KI-Modelle für seine Arbeit nutzen möchte, kann in Zukunft auch auf die anderer Anbieter zurückgreifen. Adobe zeigte auf der NAB die Integration von Large Language Modellen von Drittherstellern. „Wir sind dabei, den Zugriff auf diese Modelle in unseren Werkzeugen zu ermöglichen, um den Kund*innen die Wahl zu lassen. So wie sie die Wahl haben, Plugins von Drittanbietern zu verwenden, wollen wir ihnen die Wahl lassen, das KI-Modell zu verwenden, das für ihren Workflow am besten geeignet ist – sei es OpenAI, Runway ML oder Pica”.

KI für den Videoschnitt – künftig auch mit Wahlmöglichkeit zwischen verschiedenen LLMs

Um die Arbeit mit generativen KI-Modellen sicherer zu machen, legte Adobe auf der NAB einen starken Fokus auf Nachvollziehbarkeit und Authentizität. Als Gründungsmitglied der Content Authenticity Initiative versieht Adobe alle Inhalte, die mit Adobe-Werkzeugen erstellt werden, mit sogenannten Content Credentials. So lässt sich nachvollziehen, welche Inhalte echt sind und welche von einer KI erstellt wurden. „Unsere Content Credentials sind wie eine Nährwert-Kennzeichnung. Man kann erkennen, ob die Inhalte mit KI erstellt oder verändert wurden und welches KI-Modell dafür verwendet wurde”, sagt Gesuelli. 

Wer Adobes Firefly vertraut, kann sich zudem sicher sein, dass die generierten Inhalte kommerziell und rechtlich unbedenklich sind und entsprechend genutzt werden dürfen, verspricht Gesuelli: „Wir trainieren Firefly ausschließlich mit unseren eigenen lizenzierten Stock-Inhalten sowie mit öffentlich verfügbaren, aber nicht mehr urheberrechtlich geschützten Inhalten.”

Anzeige