Adobe MAX 2025: Künstliche Intelligenz als Kreativpartner

Von dialogbasierten Assistenten bis zur skalierbaren Content-Produktion: Adobe zeigt auf der MAX 2025, wie KI den kreativen Prozess transformiert.

62
Express AI Assistant
Auf der Adobe MAX 2025 präsentierte Adobe neue dialogfähige KI-Agenten, Firefly-Videotools und individuelle Modell-Trainings. ©Adobe

Mit einer klaren Botschaft ist Adobe in die MAX 2025 gestartet: Generative KI ist kein Ersatz für kreative Menschen, sondern ihr Werkzeug. Die weltgrößte Kreativkonferenz in Los Angeles markierte den Auftakt für eine Reihe neuer Funktionen und Plattformen, mit denen Adobe den kreativen Prozess von Grund auf neu denkt – von der ersten Idee bis zur finalen Produktion. Der Fokus liegt dabei auf der Integration leistungsfähiger KI-Modelle in die bestehenden Tools der Creative Cloud – und auf der Vision, kreative Arbeit schneller, flexibler und inklusiver zu gestalten.

Dialog statt Klicks: KI-Assistenten verstehen kreative Absichten

Ein zentrales Highlight der diesjährigen Adobe MAX sind die neuen, dialogbasierten KI-Assistenten. Wer künftig mit Adobe-Programmen arbeitet, soll nicht länger Werkzeuge bedienen müssen – sondern einfach sagen können, was er oder sie vorhat. Die Agenten-basierte KI wandelt diese Beschreibungen direkt in Ergebnisse um. Adobe integriert die Assistenten nahtlos in Anwendungen wie Express, Firefly und Photoshop – und öffnet sie zugleich für externe Plattformen.

„Unsere KI bei Adobe wurde entwickelt, um Kreative zu unterstützen, die Welt mit ihrer Fantasie zu gestalten“, sagte David Wadhwani, President Digital Media bei Adobe. Für ihn ist klar: Die steigende Nachfrage nach Inhalten, neue Ausdrucksformen und der rasante Fortschritt generativer Technologien erfordern einen neuen Ansatz – einen, bei dem Mensch und Maschine zusammenarbeiten.

Anzeige
Riedel Bolero Mini Ad

Firefly wächst zur All-in-One-Kreativplattform

Mit Firefly positioniert sich Adobe als Plattformanbieter für kreative KI-Workflows. Die neue Version von Firefly unterstützt nun eine vollständige End-to-End-Videoproduktion – inklusive Studioqualität bei Audio und Video. Tools wie „Soundtrack generieren“ (Beta), „Text zu Sprache“ (Beta) und ein zeitachsenbasierter KI-Videoeditor (private Beta) ermöglichen es, komplette Videos allein auf Basis von Textanweisungen zu erstellen.

Ein weiteres Feature: „Firefly Creative Production“ (private Beta), mit dem sich große Mengen an Assets gleichzeitig bearbeiten lassen – etwa Hintergründe austauschen oder Farbkorrekturen anwenden – ohne Programmierkenntnisse. Auch das neue Firefly Image Model 5 in 4MP-Auflösung unterstreicht den Anspruch, generative KI auf Produktionsniveau zu bringen.

Kreative Freiheit durch Modellwahl

Erstmals öffnet Adobe die Auswahl der zugrundeliegenden KI-Modelle: Neben den eigenen, kommerziell sicheren Firefly-Modellen können Nutzer*innen künftig auch Modelle von Partnern wie Google, OpenAI, Runway oder Topaz Labs nutzen – direkt in Photoshop, Express oder Firefly. Besonders spannend für viele Kreative dürfte auch die Möglichkeit sein, mit „Firefly Custom Models“ eigene, auf dem persönlichen Stil basierende Modelle zu trainieren – ein Schritt hin zu KI, die nicht nur generiert, sondern personalisiert.

Der neue KI‑Assistent in Photoshop erlaubt es, klassische Bedienoberflächen per Chat‑ oder Texteingabe zu steuern. ©Adobe

Pixelgenaue KI-Funktionen für Profis

Auch in der Creative Cloud selbst hält KI auf breiter Front Einzug – und zwar dort, wo Profis sie brauchen: Bei der Auswahl, beim Compositing, beim Hochskalieren von Bildmaterial. Neue Funktionen wie „AI Object Mask“ in Premiere oder „Assisted Culling“ in Lightroom (beide in Beta) versprechen konkrete Zeitersparnis im Produktionsalltag. In Photoshop unterstützt „Generative Upscale“ mit Technologie von Topaz Labs die verlustfreie Hochskalierung auf 4K, während „Harmonize“ Bildkompositionen erleichtert.

Skalierbare Inhalte für Unternehmen – mit KI und Kontrolle

Mit GenStudio und der neuen „Firefly Foundry“ adressiert Adobe auch die steigenden Anforderungen großer Marken. Unternehmen können jetzt maßgeschneiderte, markengerechte KI-Modelle entwickeln, trainiert auf eigenen Assets – bei voller Kontrolle über Rechte und Qualität. Unterstützt werden dabei alle relevanten Formate: von Bildern über Audio bis zu 3D.

Durch Partnerschaften mit Amazon Ads, LinkedIn, TikTok oder der Google Marketing Platform rücken die fertigen Inhalte zudem näher an die Zielgruppen. Das Ziel: schneller produzieren, konsistenter veröffentlichen – und die Content Supply Chain neu denken.

Zwischen Inspiration und Infrastruktur

Über 10.000 Teilnehmerinnen sind in diesem Jahr zur Adobe MAX gekommen – darunter Designerinnen, Video-Editor*innen, Agenturleute und Social Creators. Auf der Bühne standen Persönlichkeiten wie Filmemacher James Gunn, YouTube-Tüftler Mark Rober oder Schauspielerin Jessica Williams. Doch im Zentrum stand die Frage: Wie verändert KI die kreative Arbeit?

Adobe gibt darauf eine klare Antwort: Sie ergänzt – und ermöglicht. Der kreative Mensch bleibt im Zentrum. Die Tools machen mehr möglich. Und genau das zeigt sich in der neuen Produktgeneration – eine, die Kreativität, Technik und produktive Zusammenarbeit enger verknüpft als je zuvor.