Skip to main content
BlogCalculPrincipaux enseignements de la KubeCon + CloudNativeCon India 2025

Principaux enseignements de la KubeCon + CloudNativeCon India 2025

Le texte de votre paragraphe (4)

KubeCon + CloudNativeCon India 2025 s'est achevé à Hyderabad la semaine dernière, réunissant des milliers de développeurs, d'ingénieurs de plate-forme et de praticiens natifs du cloud pour deux jours d'apprentissage et de collaboration intensifs. La deuxième édition annuelle de l'Inde a mis en évidence non seulement l'évolution technique de Kubernetes, mais aussi le changement fondamental dans la façon dont les organisations pensent à l'expérience des développeurs, à l'ingénierie de plate-forme et aux charges de travail d'IA dans les environnements cloud, les centres de données et les environnements périphériques.

Akamai a participé à l'événement en tant que sponsor or, démontrant les capacités des produits conçus pour simplifier les opérations Kubernetes et prendre en charge les charges de travail d'IA à grande échelle.

Ci-dessous, je vais passer en revue quelques-unes des principales conclusions et technologies qui sont ressorties de la conférence, notamment K8s en tant que système d'exploitation pour les charges de travail Gen AI qui façonneront les stratégies natives du cloud au cours de l'année à venir.

L'IA et Kubernetes : De l'expérimentation à la production

La convergence des charges de travail AI/ML avec Kubernetes a progressé de manière décisive, passant d'une preuve de concept à une réalité de production. La keynote d'Intuitl'a bien montré en mettant en avant sa plateforme AI-native, qui a multiplié la vélocité par 8 pour 8 000 développeurs. Janakiram MSV a montré pourquoi Kubernetes devrait être le système d'exploitation de Gen AI. 

Tout au long de la conférence, le message était clair : Kubernetes est devenu la couche d'orchestration de facto pour les charges de travail d'IA.

Les principaux développements sont les suivants :

  • Orchestration de la charge de travail GenAI
    Au lieu de s'appuyer sur des outils personnalisés, les équipes utilisent de plus en plus les primitives natives de Kubernetes telles que CustomResourceDefinitions et StatefulSets. Cela signifie que les pipelines d'IA/ML peuvent être exprimés dans le même langage que celui que les développeurs utilisent déjà pour d'autres charges de travail.
  • Optimisation de l'ordonnancement desGPU
    La formation et l'inférence pour les grands modèles de langage (LLM) nécessitent une allocation efficace des GPU . De nouvelles avancées permettent aux ordonnanceurs Kubernetes de mieux faire correspondre les charges de travail aux ressources GPU .
  • Coordination d'agents d'IA distribués
    De nombreuses applications d'intelligence artificielle sont constituées d'un ensemble d'agents qui coopèrent. La couche d'orchestration Kubernetes est désormais exploitée pour gérer ces systèmes distribués, en veillant à ce qu'ils évoluent et communiquent de manière fiable. 
  • Inférence de l'IA en temps réel à la périphérie
    Au lieu de toujours renvoyer les données vers le nuage, l'inférence peut être exécutée localement à la périphérie. Cela permet d'éviter la latence potentielle du nuage et d'améliorer les performances sans compromettre la protection de la vie privée.

Pour les organisations qui exécutent des charges de travail d'IA, des plateformes gérées telles que Linode Kubernetes Engine (LKE) fournissent la base nécessaire à ces applications exigeantes. LKE prend en charge les instancesGPU , l'autoscaling et les intégrations de frameworks ML, aidant les développeurs à déployer des services d'inférence sans la complexité de la gestion de l'infrastructure sous-jacente.

Kubernetes à la périphérie : résoudre les défis du monde réel

L'edge computing est apparu comme un thème majeur, avec plusieurs sessions démontrant comment les distributions légères de Kubernetes permettent de rapprocher le calcul des sources de données. Ces sessions ont également abordé les défis de l'edge computing, en soulignant que l'échelle ne se limite pas à l'exécution de Kubernetes sur des appareils plus petits, mais qu'il s'agit de gérer efficacement des centaines ou des milliers de clusters distribués. 

L'échelle est un problème que Kubernetes sait résoudre, car il fournit une orchestration cohérente dans tous les environnements. Lorsqu'il est associé à des charges de travail d'IA, l'informatique en périphérie est particulièrement puissante. Les intervenants de solutions open source telles que KOs ont montré comment l'inférence en temps réel à la périphérie peut éliminer la latence du nuage tout en respectant les exigences en matière de souveraineté des données et de protection de la vie privée.

Ingénierie de plateforme : La réponse à la complexité de Kubernetes

L'ingénierie des plateformes est passée du statut de mot à la mode à celui de discipline essentielle. La conférence a clairement montré que Kubernetes brut est trop complexe à gérer et à maintenir pour la plupart des développeurs. Ils ont besoin d'abstractions qui leur apportent la puissance sans les inconvénients.

Plusieurs intervenants ont montré comment des expériences unifiées pour les développeurs peuvent mettre de l'ordre dans le chaos et réduire le temps d'intégration de plusieurs semaines à quelques jours.

Akamai App Platform illustre ces principes d'ingénierie de plate-forme en rendant Kubernetes prêt pour la production dès sa sortie de l'emballage. Elle élimine la complexité du déploiement et de la gestion des applications Kubernetes en fournissant une pile d'outils préconfigurés pour les pipelines CI/CD, les stratégies réseau, le stockage et l'observabilité, ainsi que des modèles de chemin d'or pour que les développeurs puissent bénéficier de la puissance de Kubernetes sans les frais généraux d'exploitation.

eBPF et WebAssembly : Technologies prêtes pour la production

Deux technologies qui se profilent à l'horizon depuis des années ont finalement démontré qu'elles étaient prêtes pour la production :

L'eBPF (Extended Berkeley Packet Filter) est devenu essentiel pour :

  • Contrôle non invasif des performances sans modification de l'application
  • Application de la sécurité réseau au niveau du noyau 
  • Observabilité sans frais généraux pour le dépannage
  • Analyse et filtrage du trafic en temps réel

WebAssembly (Wasm) gagne du terrain en :

  • Scénarios d'informatique en périphérie où les conteneurs sont trop lourds
  • Fonctions "edge" et "serverless".
  • Systèmes de plugins pour étendre les capacités de la plate-forme
  • Portabilité multiplateforme sans conteneurisation

Ces technologies sont particulièrement précieuses pour les organisations utilisant LKE, où eBPF peut fournir une observabilité approfondie du comportement des clusters et WebAssembly peut permettre des charges de travail légères à la périphérie tout en maintenant l'intégration avec l'infrastructure Kubernetes principale. Grâce à notre partenaire Fermyon, les fonctions WebAssembly peuvent s'exécuter sur Akamai, montrant une nouvelle approche pour des charges de travail sans serveur rapides et légères à la périphérie. L'intégration de Fermyon est parfaite pour les architectures pilotées par les événements et les cas d'utilisation à faible latence. Fermyon est également le créateur des projets CNCF SPIN et SpinKube. 

Perspectives d'avenir

Les enseignements tirés de la KubeCon + CloudNativeCon India 2025 se traduisent par des actions claires pour les entreprises :

  • Évaluer l'ingénierie des plates-formes comme une initiative stratégique, et pas seulement technique
  • Préparez-vous aux charges de travail d'IA en vous assurant que votre infrastructure Kubernetes peut gérer la planification GPU et l'entraînement distribué.
  • Explorer les déploiements en périphérie pour les cas d'utilisation nécessitant un traitement local, une latence réduite ou la souveraineté des données.
  • Préparez-vous à ce que la gestion multi-clusters devienne essentielle à mesure que les entreprises distribuent les charges de travail dans le nuage, les centres de données et la périphérie.
  • Comprendre que l'expérience des développeurs détermine la vélocité, car chaque point de friction dans votre plateforme a un impact direct sur les résultats de l'entreprise.
  • Envisagez des solutions gérées comme Akamai App Platform et LKE lorsque la simplicité opérationnelle importe plus que le contrôle granulaire.

Comme l'ont souligné plusieurs intervenants, l'avenir appartient aux plateformes qui offrent la puissance de Kubernetes sans ses inconvénients, ce qui permet aux développeurs de se concentrer sur ce qui compte, c'est-à-dire l'envoi de code qui apporte une valeur ajoutée à l'entreprise.

Sur la base de l'élan de cette année, la KubeCon India de l'année prochaine à Mumbai promet de présenter encore plus d'innovations provenant de l'écosystème florissant de l'Inde en matière d'informatique dématérialisée (cloud native).

Vous pourriez aussi aimer...

Commentaires

Laissez un commentaire

Votre adresse électronique ne sera pas publiée. Les champs obligatoires sont marqués d'un *.