AWS zeigt auf der NAB 2025, was KI heute schon kann

Auf der NAB Show 2025 präsentierte AWS praxisnahe Anwendungen für generative KI, semantische Videoanalyse und Agentic AI. Stephanie Lone gab Einblicke in aktuelle Technologien und Strategien.

47
Stephanie Lone von AWS sprach auf der NAB 2025 über den praktischen Einsatz von KI in der Medienproduktion.
Stephanie Lone von AWS sprach auf der NAB 2025 über den praktischen Einsatz von KI in der Medienproduktion.

Auf der NAB Show 2025 präsentierte sich Amazon Web Services (AWS) als Innovationstreiber für die Medien-, Broadcast- und Sportbranche. Im Mittelpunkt des Auftritts standen praxisnahe Lösungen, mit denen sich Produktions- und Distributionsprozesse effizienter, flexibler und zukunftssicher gestalten ließen. Stephanie Lone, weltweit verantwortlich für das Solution-Architecture-Team bei AWS in den Bereichen Medien, Entertainment, Gaming und Sport, erläuterte im Gespräch die technologischen Schwerpunkte und strategischen Ziele des Unternehmens.

Drei Leitmotive als inhaltlicher Rahmen: Create, Connect, Captivate

Der Messestand von AWS orientierte sich an drei zentralen Themenfeldern: Create, Connect und Captivate. Diese standen stellvertretend für die großen Herausforderungen, mit denen sich viele Medienhäuser aktuell beschäftigten – nämlich Inhalte effizient zu erstellen, Workflows intelligent zu verknüpfen und Zielgruppen auf neuen Kanälen zu erreichen.

„Unsere Kunden bewegten sich längst nicht mehr ausschließlich im linearen TV“, erklärte Lone. „Sie produzierten zunehmend für verschiedene Plattformen – etwa für FAST-Channels, Social Media oder alternative Livestream-Angebote. Genau dafür benötigen sie skalierbare, cloudbasierte Workflows.“

Generative KI: Anwendungen für kreative und technische Workflows

Ein zentrales Thema auf dem Stand war der konkrete Einsatz von generativer künstlicher Intelligenz in kreativen und operativen Bereichen. AWS zeigte anhand zahlreicher Demos, wie sich KI-gestützte Prozesse in die Medienproduktion integrieren lassen – etwa bei der automatisierten Archiverschließung, der Erstellung von Highlight-Clips oder dem Storyboarding per Textprompt.

Eine der interaktivsten Anwendungen war eine Rennsimulation im F1-Stil, bei der Besucher nach ihrem virtuellen Rennen mit einem KI-gesteuerten Avatar ein personalisiertes „Interview“ führen konnten. Dabei analysierte das System nicht nur die Fahrdaten in Echtzeit, sondern antwortete kontextbezogen und sogar mit einem Augenzwinkern – inklusive Verweis auf passende Produkte bei Amazon.

Zusätzlich stellte AWS eine neue Integration mit 12 Labs vor, einem Anbieter für semantische Videosuche, der nun über Amazon Bedrock verfügbar ist. Mithilfe von Embeddings konnten Inhalte im Archiv auf Basis visueller Ähnlichkeit gefunden werden – ohne klassische Metadatenanalyse. „Man suchte beispielsweise nach einer Szene mit zwei Giraffen – und das System lieferte automatisch alle vergleichbaren Szenen im Archiv“, so Lone. Die Technologie eröffnete neue Möglichkeiten für Recherche, Produktion und Personalisierung.

Fan-Engagement und Agentic AI: Interaktive Formate und Automatisierung

Auch im Bereich Zuschauerbindung setzte AWS auf interaktive KI-Erlebnisse. So präsentierte das Unternehmen unter anderem einen Hologramm-Avatar der F1-Expertin Ruth Buscombe, mit dem sich Besucher live unterhalten konnten – zu Rennsportthemen, aber auch zu den AWS-Diensten auf der Messe. „Conversational AI wurde hier nicht nur informativ, sondern auch unterhaltsam eingesetzt“, betonte Lone.

Darüber hinaus stellte AWS das Konzept der Agentic AI vor – ein System aus spezialisierten KI-Agenten, die unter einem Supervisor-Agenten koordiniert zusammenarbeiteten. Jeder Subagent übernahm eine bestimmte Aufgabe, etwa Transkription, Stimmungsanalyse oder Gesichtserkennung. In Summe entstand ein automatisierter Prozess, der etwa in der Qualitätskontrolle oder bei der Inhaltsanalyse von Vorteil war. „Besonders in der Postproduktion bot diese Arbeitsweise große Effizienzgewinne – etwa durch automatisches Flagging von Problemstellen und Einbindung menschlicher Kontrolle nur bei Bedarf.“

Vielfalt statt Einheitslösung: Für jede Strategie ein passender Einstieg

Was auf dem AWS-Messestand auch sofort klar wurde – das Unternehmen setzt beim Thema KI konsequent auf Wahlfreiheit: Technisch versierte Nutzer konnten mit SageMaker eigene Modelle trainieren, während Entwickler auf Bedrock vortrainierte Modelle über API ansprechen konnten. Für weniger technisch orientierte Teams standen Anwendungen wie Amazon Q oder QuickSight zur Verfügung.
„Wir bieten Lösungen für jede Zielgruppe“, sagte Lone. „Nicht jeder muss selbst modellieren – aber alle sollen von KI profitieren können.“

Ausblick: KI treibt neue Formate und Arbeitsweisen voran

Auf die Frage nach einer Prognose für die nächsten fünf Jahre antwortete Lone zurückhaltend – dafür sei der Wandel aktuell zu dynamisch. Doch sie betonte, wie stark sich allein in den letzten zwölf Monaten die Nutzungsmöglichkeiten von KI verändert hätten. „Heute erzeugen wir 3D-Assets aus Text, automatisieren das Storyboarding und experimentieren mit kreativen Tools, die vor einem Jahr noch undenkbar gewesen wären. Ich bin gespannt, was unsere Kunden daraus in den nächsten Monaten machen.“

AWS zeigte praktische Wege in die mediale Zukunft

Mit seinem Auftritt auf der NAB Show 2025 hatte AWS nicht nur eine breite Palette technologischer Lösungen präsentiert, sondern auch neue Denkweisen angestoßen. Im Mittelpunkt stand nicht die Technik allein, sondern die Inspiration: Medienunternehmen sollten erkennen, wie sie ihre Kreativität durch KI, Cloud und Automatisierung erweitern können. Stephanie Lone brachte es auf den Punkt: „Wir wollten zeigen, was heute schon möglich ist – und den Mut machen, die nächsten Schritte zu gehen.“