Autoscaling basato sulle richieste in Kubernetes: scalare a zero e tornare indietro
TL;DR: In questa sessione imparerete a monitorare le richieste HTTP alle vostre applicazioni in Kubernetes e a definire regole di autoscaling per aumentare e ridurre le repliche dei vostri carichi di lavoro.
La riduzione dei costi dell'infrastruttura si riduce alla disattivazione delle applicazioni quando non vengono utilizzate. Tuttavia, la sfida consiste nel capire come attivarle automaticamente quando ne avete bisogno. Prendiamo l'esempio di un cluster Kubernetes dev: si potrebbe desiderare di non eseguire alcun servizio durante il fine settimana. In questo webinar, Salman dimostrerà dal vivo come sia possibile utilizzare KEDA e lo scaler HTTP per intercettare e monitorare le richieste ai servizi e scalare i pod di conseguenza. In questo modo, scoprirete come potete scalare a zero e creare pod solo quando ne avete bisogno.