Início » Wowza stellt Video Intelligence Framework mit KI für Live-Streaming auf der NAB Show 2026 vor

Wowza stellt Video Intelligence Framework mit KI für Live-Streaming auf der NAB Show 2026 vor

Neue Lösung verwandelt Live-Videostreams in verwertbare Echtzeitdaten für Medien- und Sportanwendungen.

Por Panorama Audiovisual

Wowza hat die allgemeine Verfügbarkeit des Video Intelligence Framework bekannt gegeben – eine neue Lösung, die es Medien- und Sportunternehmen ermöglicht, künstliche Intelligenz direkt in Live-Streaming-Workflows zu integrieren.

Das Framework wurde für den Einsatz mit dem Wowza Streaming Engine entwickelt und verbindet Live-Videostreams mit KI-Inferenzsystemen. Dadurch lassen sich Ereignisse im laufenden Stream in Echtzeit in nutzbare Daten umwandeln – darunter Metadaten, Clips, Alerts und strukturierte Signale.

Ein einzelnes Ereignis innerhalb eines Streams kann so parallel mehrere Prozesse auslösen: etwa zielgerichtete Werbeausspielung, automatisierte Clip-Erstellung, Webhook-Auslösungen und Updates für nachgelagerte Systeme – ohne zusätzliche Pipelines, manuelle Eingriffe oder Verzögerungen.

Nach Angaben des Unternehmens kann insbesondere die schnelle Bereitstellung von Highlight-Clips neue Umsatzpotenziale erschließen. Studien zeigen, dass kontextbezogene Werbung auf Basis von Live-Ereignissen bis zu 40 Prozent höhere CPMs erzielen kann als klassische Werbeunterbrechungen – vorausgesetzt, relevante Ereignisse werden in Echtzeit erkannt.

„Live-Video ist das wertvollste und zugleich flüchtigste Asset in Medien und Sport – und ein Großteil davon bleibt ungenutzt“, sagte Krish Kumar. „Der entscheidende Moment vergeht oft, bevor darauf reagiert werden kann. Unser Video Intelligence Framework bringt KI direkt in den Live-Stream – genau dorthin, wo der Wert entsteht – und ermöglicht es Teams, Ereignisse zu erkennen und sofort darauf zu reagieren.“

Technisch extrahiert das System Einzelbilder aus dem Live-Stream, übergibt sie an KI-Modelle und wandelt die Ergebnisse in strukturierte Outputs um, darunter Webhooks, JSON-Daten, ID3-Tags, Overlays, zeitcodierte Clips und Event-Logs.

Da die Verarbeitung direkt innerhalb der Videopipeline erfolgt, kann ein einzelnes Ereignis gleichzeitig mehrere Ergebnisse generieren – etwa Metadaten für Werbesysteme, redaktionelle Clips, Produktionsalarme und Updates für Analyseplattformen.

Die Lösung ist flexibel einsetzbar und kann lokal, am Netzwerkrand (Edge), in der Cloud oder in hybriden Umgebungen betrieben werden. Zudem unterstützt sie den Einsatz eigener KI-Modelle sowie individuell angepasster Erkennungslogiken.

Zu den wichtigsten Anwendungsfällen zählen kontextbasierte Echtzeit-Werbung, automatische Erstellung von Clips und Metadaten, Generierung von Sport-Highlights, Performance-Analysen, Kamera-Monitoring sowie operative Optimierung.

Das Video Intelligence Framework wurde am 19. April 2026 eingeführt und wird auf der NAB Show 2026 mit Fokus auf Live-Video, Sport und Streaming-Innovationen demonstriert.

Assuntos relacionados