このセッションでは、Kubernetes でアプリケーションへの HTTP リクエストを監視する方法と、ワークロードのレプリカを増加および減少させるためのオートスケーリングルールを定義する方法について学習します。
インフラコストの削減は、詰まるところアプリケーションを使わないときはオフにするということになります。しかし、課題は、それらが必要なときに自動的にオンにする方法を考え出すことです。Kubernetes 開発用クラスターの例を挙げてみましょう。週末にはサービスを稼動したくないと考えています。このウェビナーでは、Salman が、KEDA と HTTP スケーラーを使用して、サービスへの要求を傍受して監視し、それに応じてポッドをスケーリングする方法についてライブデモでご紹介します。その過程で、ポッドをゼロにスケーリングする方法や、必要なときにのみポッドを作成する方法についても学ぶことができます。