Mehr Nutzer als je zuvor abonnieren On-Demand-Medien-Streaming und nutzen Live-Streaming-Videos über das Internet anstelle des Fernsehens. Diese Verschiebung hat dazu geführt, dass hochspezialisierte Technologie zur Unterstützung von leistungskritischen Medientranskodierungs- und OTT-Streaming-Funktionen benötigt wird.
Vor kurzem haben wir Accelerated Compute eingeführt, unsere neue Compute-Lösung, die Zugang zu anwendungsspezifischen integrierten Schaltkreisen (ASICs) in der Cloud bietet, angefangen mit NETINT Quadra Video Processing Units (VPUs). VPUs sind spezialisierte Hardware, die entwickelt wurde, um Medien effizienter und mit drastisch geringerem Stromverbrauch zu kodieren und zu dekodieren als CPU- oder GPU Transkodierung.
In diesem Blog lernen Sie High-Level-Hardware-Design-Konzepte kennen, die dafür sorgen, dass eine VPU anders funktioniert als ihre bekannten CPU- und GPU .
Wichtige Begriffe des Medienanwendungs-Workflows
- Medienkodierung: Der Prozess der Konvertierung von Audio-, Video- und Bildströmen oder -dateien von einem Format in ein anderes, wobei die Originaldatei komprimiert wird, um ihre Größe zu verringern und die Qualität zu erhalten.
- Medien-Dekodierung: Der Prozess der Konvertierung einer Mediendatei oder eines Streams in ein abspielbares Format.
- Medien-Transkodierung: Ein umfassender Prozess der Konvertierung von Medien in verschiedene Dateitypen (einschließlich Kodierung und Dekodierung), kombiniert mit benutzerdefinierten Funktionen wie Herunterskalierung der Auflösung, Anpassung der Bitrate oder Änderung der Codec-Standards zur Unterstützung wechselnder Netzwerkbedingungen und Wiedergabeumgebungen.
Fortschritte bei der Hardware
Im Zuge der technologischen Entwicklung führen Vorgänge, die die zugrunde liegende Hardware besonders belasten, dazu, dass die Hersteller neue Materialkombinationen verwenden, um neue Funktionen und Leistungsstufen hinzuzufügen, je nachdem, was die Hardware aushalten kann. Hardware-Innovation, -Design und -Produktion werden durch die Optimierung der Hardware-Stromquelle und der in den einzelnen Schaltkreisen und Komponenten verwendeten Rohmaterialien vorangetrieben.
Die Fortschritte bei der Entwicklung und Technologie von Prozessoreinheiten werden im Allgemeinen durch zwei Hauptelemente bestimmt:
- Dichtere Packung von Schaltungselementen auf jedem Chip (oder bessere Nutzung des physischen Chipraums).
- Erweiterung der inhärenten Fähigkeiten der auf diesen Chips implementierten Mikroprozessoren (oder Weiterentwicklung dessen, was die Chips selbst als Out-of-the-Box-Hardware leisten können).
Komponenten der Architektur
Das folgende Diagramm veranschaulicht die Anzahl und das Verhältnis der verschiedenen Schaltkreise und Motoren in einer CPU vs. GPU vs. VPU (auf konzeptioneller Ebene). GPUs sind so konzipiert, dass sie dicht mit arithmetischen Logikeinheiten oder ALUs für die parallele Verarbeitung gepackt sind, was GPUs für Arbeitslasten wie Grafikrendering und maschinelles Lernen effizienter macht. Im Vergleich dazu verfügen Videoverarbeitungseinheiten oder VPUs über Schaltkreise mit fester Funktion, die für bestimmte medienbasierte Aufgaben wie Kodierung, Dekodierung, Skalierung und andere für die Videokodierung und -verarbeitung erforderliche Funktionen programmiert sind.

- Steuerung: Synchrone (Ereignisse werden in einer bestimmten Reihenfolge ausgeführt) digitale Schaltung, die für die Interpretation von Prozessoranweisungen und die Verwaltung der Ausführung dieser Anweisungen zuständig ist.
- Arithmetische Logikeinheit (ALU): Kombinatorische (Ereignisse und Logik werden "nach Bedarf" angewendet) digitale Schaltung, die auf Dateneingabe reagiert, um komplexe Logik durchzuführen.
- Cache: Lokaler Cache für Datenzugriff mit niedriger Latenz.
- Videoverarbeitung mit fester Funktion: Schaltkreise, die spezifische, vordefinierte Aufgaben mit hoher Effizienz und geringem Stromverbrauch ausführen.
- AI-Engine: Ein spezialisierter Rechenblock für Aufgaben der künstlichen Intelligenz (AI), der die Matrix- und Vektorverarbeitung maximiert.
Warum es wichtig ist
Abgesehen von der reinen Verarbeitungsleistung erfordern Transcoding-Workloads spezielle Hardware für maximale Effizienz. Ausgehend vom Kundenfeedback während unserer Beta-Phase stellten die Benutzer fest, dass die Dedicated CPU bei 2 bis 4 gleichzeitigen Streams ihr Maximum erreichten, wohingegen die VPU-beschleunigten Instanzen 30 gleichzeitige Streams erreichen. Zusätzlich zu den allgemeinen Kosteneinsparungen ermöglicht die höhere Dichte Medienunternehmen und technischen Partnern, ihre Kosten pro Stream zu senken.
Der Zugriff auf VPUs in der Cloud bedeutet auch, dass Sie die Größe nach Bedarf anpassen oder die dedizierte Verarbeitungsleistung hinzufügen können, die Sie nur mit VPUs erhalten, wenn Ihre Anwendung skaliert oder in Spitzenzeiten.
Legen Sie mit Akamai Cloud Accelerated Instances los, indem Sie ein Konto erstellen, oder kontaktieren Sie unsere Cloud Computing-Berater, um mehr zu erfahren.
Kommentare