メインコンテンツにスキップ
ブログコンピュートKubeCon + CloudNativeCon India 2025のキーポイント

KubeCon + CloudNativeCon India 2025の要点

段落テキスト (4)

KubeCon + CloudNativeCon India 2025が先週ハイデラバードで開催され、数千人の開発者、プラットフォーム・エンジニア、クラウド・ネイティブの実務者が集まり、2日間にわたって集中的な学習とコラボレーションが行われた。第2回目となるインド版は、Kubernetesの技術的な進化だけでなく、クラウド、データセンター、エッジ環境を横断する開発者体験、プラットフォームエンジニアリング、人工知能 ワークロードに対する組織の考え方の根本的な転換を紹介した。

アカマイはゴールドスポンサーとしてイベントに参加し、Kubernetes の運用を簡素化し、人工知能 ワークロードを大規模にサポートするよう設計された製品機能のデモンストレーションを行ないました。

以下では、来年のクラウドネイティブ戦略を形作るであろう、人工知能 世代のワークロード向けOSとしてのK8sを含め、カンファレンスで明らかになった重要な要点とテクノロジーを紹介する。

人工知能とKubernetes:実験から生産規模へ

人工知能ワークロードとKubernetesのコンバージェンスは、コンセプトの実証からプロダクションの現実へと決定的に進歩している。Intuitの基調講演では、8,000人の開発者のベロシティを8倍に向上させた同社の人工知能プラットフォームが紹介され、このことが強調された。Janakiram MSV氏による基調講演では、なぜKubernetesが人工知能 オペレーティングシステムとなるべきなのかが示された。 

カンファレンスを通じて、Kubernetesが人工知能 ワークロードの事実上のオーケストレーションレイヤーになっているというメッセージは明確だった。

主な進展は以下の通り:

  • GenAIワークロードオーケストレーション
    カスタムツールに頼る代わりに、チームはCustomResourceDefinitionsやStatefulSetsのようなKubernetesネイティブプリミティブを使用するようになってきている。これは、人工知能パイプラインが、開発者が既に他のワークロードに使用しているのと同じ言語で表現できることを意味する。
  • GPU スケジューリングの最適化
    大規模言語モデル(LLM)のトレーニングと推論には、効率的なGPU 割り当てが必要です。新たな進歩により、KubernetesのスケジューラはワークロードをGPU リソースにうまくマッチさせることができるようになりました。
  • 分散型人工知能 エージェントの調整
    多くの人工知能 アプリケーションは、協調するエージェントの集合体である。Kubernetesオーケストレーションレイヤーは、これらの分散システムを管理し、スケールと通信の信頼性を確保するために活用されている。 
  • エッジでのリアルタイム人工知能 推論
    データを常にクラウドに送り返す代わりに、推論はエッジ上でローカルに実行できる。これにより、潜在的なクラウドのレイテンシーを回避し、プライバシーのトレードオフなしにパフォーマンスに対応することができる。

人工知能 ワークロードを実行している組織では、次のようなマネージドプラットフォームが利用できます。 Linode Kubernetes Engine (LKE) のようなマネージドプラットフォームは、これらの要求の厳しいアプリケーションに必要な基盤を提供します。LKEはGPU インスタンスオートスケールMLフレームワークの統合をサポートし、開発者が基礎となるインフラ管理する複雑さなしに推論サービスを展開できるようにします。

エッジでのKubernetes:現実世界の課題を解決する

エッジコンピューティングは主要なテーマとして浮上し、複数のセッションで、軽量なKubernetesディストリビューションがいかにデータソースに近いところでコンピューティングを可能にしているかを実証した。これらのセッションでは、エッジコンピューティングにおける課題も取り上げられ、スケールは単に小さなデバイス上でKubernetesを実行することだけでなく、数百、数千の分散クラスタを効率的に管理することであることが強調されました。 

Kubernetesは環境間で一貫したオーケストレーションを提供するため、スケールを解決するのが得意だ。人工知能 ワークロードと組み合わせれば、エッジコンピューティングは特に強力だ。K0sのようなオープンソースソリューションのスピーカーは、エッジでのリアルタイム推論が、データ主権とプライバシー要件を尊重しながら、クラウドのレイテンシーを排除できることを実演した。

プラットフォームエンジニアリング:Kubernetesの複雑性への答え

プラットフォームエンジニアリングは、バズワードから重要な規律へと卒業した。このカンファレンスでは、生のKubernetesはほとんどの開発者が管理・保守するには複雑すぎることが明らかになった。開発者は、苦痛を伴わずにパワーを提供する抽象化を必要としている。

何人かの講演者は、統一された開発者エクスペリエンスがどのように混沌に秩序をもたらし、オンボーディングにかかる時間を数週間から数日に短縮できるかを実演した。

Akamai App Platformは、Kubernetes をすぐに本番稼動できるようにすることで、こうしたプラットフォームエンジニアリングの原則を体現しています。このプラットフォームは、CI/CD パイプライン、ネットワークポリシー、ストレージ、および観測可能性のためのツールの設定済みスタックとゴールデンパス・テンプレートを提供することにより、Kubernetes アプリケーションの導入と管理の複雑さを解消し、開発者は運用のオーバーヘッドなしに Kubernetes のパワーを得ることができます。

eBPFとWebAssembly:生産に適した技術

何年もの間、実現が目前に迫っていた2つの技術が、ついに製造の準備が整ったことを示した:

eBPF(Extended Berkeley Packet Filter:拡張バークレー・パケット・フィルター)は、そのために不可欠なものとなっている:

  • アプリケーションを変更することなく、非侵襲的にパフォーマンスを監視
  • カーネルレベルのネットワーク・セキュリティ実施 
  • トラブルシューティングのためのゼロ・オーバーヘッド観測可能性
  • リアルタイムのトラフィック解析とフィルタリング

WebAssembly(Wasm)が人気を集めている:

  • コンテナが重すぎるエッジ・コンピューティング・シナリオ
  • エッジ機能とサーバーレス機能。
  • プラットフォーム機能を拡張するプラグインシステム
  • コンテナ化を必要としないクロスプラットフォームの移植性

これらのテクノロジーは、LKE を使用する組織にとって特に価値があり、eBPF はクラスタの動作に深い観測性を提供し、WebAssembly はエッジで Kubernetesインフラコアとの統合を維持しながら軽量のワークロードを可能にします。我々のパートナーであるFermyon を通してWebAssembly の関数はアカマイ上で実行することができ、エッジにおける高速で軽量なサーバーレスワークロードのための新しいアプローチを示しています。Fermyon の統合は、イベント駆動型アーキテクチャや低レイテンシーのユースケースに最適です。Fermyon はまた、CNCF プロジェクト SPIN および SpinKube の開発者でもあります。 

前途

KubeCon + CloudNativeCon India 2025からの洞察は、組織のための明確なアクションに変換されます:

  • プラットフォーム・エンジニアリングを単なる技術的な取り組みではなく、戦略的な取り組みとして評価する
  • Kubernetesインフラ GPU スケジューリングと分散トレーニングに対応できるようにして、 人工知能 ワークロードに備える
  • ローカル処理、待ち時間の短縮、データ主権を必要とするユースケースに対応するエッジ展開を検討する
  • 企業がクラウド、データセンター、エッジにワークロードを分散させるのに伴い、マルチクラスタ管理が不可欠になる。
  • 開発者のエクスペリエンスがベロシティを決定することを理解する
  • きめ細かなコントロールよりも運用のシンプルさが重要な場合は、Akamai App PlatformLKE のようなマネージドソリューションをご検討ください

複数の講演者が強調したように、将来はKubernetesのパワーを苦痛なく提供するプラットフォームが主流になり、開発者は重要なこと、つまりビジネス価値を提供するコードの出荷に集中できるようになる。

今年の勢いに基づき、来年ムンバイで開催されるKubeCon Indiaでは、インドの盛んなクラウド・ネイティブ・エコシステムからさらなるイノベーションが披露されることを約束する。

こちらもどうぞ...

コメント 

コメントを残す

あなたのメールアドレスは公開されません。必須項目には*印がついています。