Un numero sempre maggiore di utenti si abbona allo streaming multimediale on-demand e si impegna con lo streaming video in diretta su Internet, piuttosto che con la televisione broadcast. Questo cambiamento ha reso necessaria una tecnologia altamente specializzata per supportare le funzionalità di transcodifica dei media e di streaming OTT che richiedono prestazioni critiche.
Di recente abbiamo lanciato Accelerated Compute, la nostra nuova soluzione di calcolo che fornisce l'accesso a circuiti integrati specifici per le applicazioni (ASIC) nel cloud, a partire dalle unità di elaborazione video (VPU) NETINT Quadra. Le VPU sono hardware specializzato progettato per codificare e decodificare i media in modo più efficiente e con un consumo energetico drasticamente inferiore rispetto alla transcodifica GPU CPU o GPU.
In questo blog, imparerete i concetti di progettazione hardware di alto livello che fanno sì che una VPU funzioni in modo diverso rispetto alle controparti CPU e GPU .
Termini chiave del flusso di lavoro delle applicazioni multimediali
- Codifica dei media: Il processo di conversione di flussi o file audio, video e di immagini da un formato a un altro, comprimendo il file originale per ridurne le dimensioni e mantenere la qualità.
- Decodifica dei media: Il processo di conversione di un file multimediale o di un flusso nel suo formato riproducibile.
- Transcodifica dei media: Un processo completo di conversione dei media in diversi tipi di file (compresa la codifica e la decodifica) combinato con funzioni personalizzate come il downscaling della risoluzione, la regolazione del bitrate o la modifica degli standard dei codec per supportare le condizioni di rete e gli ambienti di riproduzione.
Progressi hardware
Con l'evoluzione della tecnologia, le operazioni che causano sollecitazioni specifiche all'hardware sottostante portano i produttori a utilizzare nuove combinazioni di materiali per aggiungere nuove funzionalità e livelli di prestazioni in base a ciò che l'hardware può sopportare. L'innovazione, la progettazione e la produzione dell'hardware sono guidate dall'ottimizzazione della fonte di alimentazione dell'hardware e delle materie prime utilizzate nei singoli circuiti e componenti.
Due elementi principali definiscono generalmente i progressi nella progettazione e nella tecnologia delle unità di elaborazione:
- Impacchettamento più denso di elementi di circuito su ciascun chip (o, in alternativa, avanzamento nell'uso dello spazio fisico del chip).
- Espansione delle capacità intrinseche dei microprocessori implementati su tali chip (o avanzamento di ciò che i chip stessi possono fare come hardware out-of-the-box).
Componenti dell'architettura
Il diagramma seguente illustra la quantità e il rapporto tra i diversi circuiti e motori di una CPU rispetto a una GPU e a una VPU (a livello concettuale). Le GPU sono progettate per essere dotate di unità logiche aritmetiche o ALU per l'elaborazione in parallelo, il che le rende più efficienti per carichi di lavoro come il rendering grafico e l'apprendimento automatico. In confronto, le unità di elaborazione video o VPU sono caratterizzate da circuiti a funzione fissa programmati per eseguire compiti specifici basati sui media, come la codifica, la decodifica, il ridimensionamento e altre funzioni necessarie per la codifica e l'elaborazione dei video.

- Controllo: Circuito digitale sincrono (gli eventi vengono eseguiti in un ordine specifico) dedicato all'interpretazione delle istruzioni del processore e alla gestione dell'esecuzione di tali istruzioni.
- Unità logica aritmetica (ALU): Circuito digitale combinatorio (gli eventi e la logica vengono applicati "secondo necessità") che risponde ai dati in ingresso per eseguire una logica complessa.
- Cache: Cache locale per l'accesso ai dati a bassa latenza.
- Elaborazione video a funzione fissa: Circuiti dedicati all'esecuzione di compiti specifici e predefiniti con un'elevata efficienza e un basso consumo energetico.
- Motore AI: Un blocco di calcolo specializzato dedicato alle attività di intelligenza artificiale (AI) che massimizza l'elaborazione di matrici e vettori.
Perché è importante
Oltre alla pura potenza di elaborazione, i carichi di lavoro di transcodifica richiedono un hardware specializzato per ottenere la massima efficienza. In base al feedback dei clienti durante il periodo di beta, gli utenti hanno riscontrato che i piani Dedicated CPU raggiungevano al massimo 2-4 flussi simultanei, rispetto ai 30 flussi simultanei delle istanze accelerate con VPU. Oltre al risparmio complessivo sui costi, una maggiore densità consente alle organizzazioni dei media e ai partner tecnici di ridurre il costo per flusso.
Accedere alle VPU nel cloud significa anche poterle ridimensionare in base alle esigenze o aggiungere la potenza di elaborazione dedicata che si può ottenere solo con le VPU man mano che l'applicazione cresce o nei momenti di picco.
Iniziate a utilizzare le istanze accelerate di Akamai Cloud creando un account, oppure contattate i nostri consulenti di cloud computing per saperne di più.
Commenti