Zum Inhalt springen
BlogBerechnenDie wichtigsten Erkenntnisse der KubeCon + CloudNativeCon India 2025

Die wichtigsten Erkenntnisse der KubeCon + CloudNativeCon India 2025

Ihr Absatztext (4)

Die KubeCon + CloudNativeCon India 2025 ging letzte Woche in Hyderabad zu Ende und brachte Tausende von Entwicklern, Plattformingenieuren und Cloud-Native-Experten für zwei Tage intensiven Lernens und Zusammenarbeits zusammen. Die zweite jährliche Indien-Ausgabe zeigte nicht nur die technische Entwicklung von Kubernetes, sondern auch den grundlegenden Wandel in der Art und Weise, wie Unternehmen über Entwicklererfahrung, Plattform-Engineering und KI-Workloads in Cloud-, Rechenzentren und Edge-Umgebungen denken.

Akamai nahm als Goldsponsor an der Veranstaltung teil und demonstrierte Produktfunktionen, die den Kubernetes-Betrieb vereinfachen und KI-Workloads in großem Umfang unterstützen.

Im Folgenden gehe ich auf einige der wichtigsten Erkenntnisse und Technologien der Konferenz ein, darunter K8s als Betriebssystem für Gen-KI-Workloads, die im kommenden Jahr die Strategien der Cloud-Natives prägen werden.

KI und Kubernetes: Vom Experimentieren zum Produktionsmaßstab

Die Konvergenz von KI/ML-Workloads mit Kubernetes hat sich von einem Proof of Concept zu einer Produktionsrealität entwickelt. Die Keynote von Intuitverdeutlichte dies, indem sie ihre KI-native Plattform vorstellte, die die Geschwindigkeit von 8.000 Entwicklern um das 8-fache steigerte. Eine Keynote von Janakiram MSV zeigte, warum Kubernetes das Betriebssystem für Gen-KI sein sollte. 

Während der gesamten Konferenz war die Botschaft klar: Kubernetes hat sich zur De-facto-Orchestrierungsschicht für KI-Workloads entwickelt.

Zu den wichtigsten Entwicklungen gehören:

  • GenAI-Workload-Orchestrierung
    Anstatt sich auf benutzerdefinierte Tools zu verlassen, verwenden Teams zunehmend native Kubernetes-Primitive wie CustomResourceDefinitions und StatefulSets. Dies bedeutet, dass KI/ML-Pipelines in derselben Sprache ausgedrückt werden können, die Entwickler bereits für andere Workloads verwenden.
  • Optimierung derGPU
    Training und Inferenz für große Sprachmodelle (LLMs) erfordern eine effiziente GPU . Dank neuer Entwicklungen können Kubernetes-Scheduler die Arbeitslasten besser auf die GPU abstimmen.
  • Koordinierung verteilter KI-Agenten
    Viele KI-Anwendungen bestehen aus einer Sammlung kooperierender Agenten. Die Kubernetes-Orchestrierungsschicht wird jetzt zur Verwaltung dieser verteilten Systeme eingesetzt, um sicherzustellen, dass sie skalieren und zuverlässig kommunizieren. 
  • KI-Inferenz in Echtzeit am Edge
    Anstatt Daten immer zurück in die Cloud zu senden, kann die Inferenz lokal am Edge ausgeführt werden. Dadurch werden potenzielle Latenzzeiten in der Cloud vermieden und die Leistung ohne Abstriche beim Datenschutz verbessert.

Für Unternehmen, die KI-Workloads ausführen, sind verwaltete Plattformen wie Linode Kubernetes Engine (LKE) bieten die für diese anspruchsvollen Anwendungen erforderliche Grundlage. LKE unterstützt GPU , Autoskalierung und ML-Framework-Integrationen und hilft Entwicklern, Inferenzdienste ohne die Komplexität der Verwaltung der zugrunde liegenden Infrastruktur bereitzustellen.

Kubernetes am Rande: Lösung von Herausforderungen in der realen Welt

Edge Computing war ein wichtiges Thema. In mehreren Sessions wurde gezeigt, wie leichtgewichtige Kubernetes-Distributionen die Datenverarbeitung näher an den Datenquellen ermöglichen. Diese Sitzungen befassten sich auch mit den Herausforderungen des Edge-Computing und betonten, dass es bei der Skalierung nicht nur um die Ausführung von Kubernetes auf kleineren Geräten geht, sondern um die effiziente Verwaltung von Hunderten oder Tausenden von verteilten Clustern. 

Kubernetes ist eine gute Lösung für die Skalierung, da es eine konsistente Orchestrierung über Umgebungen hinweg ermöglicht. In Verbindung mit KI-Workloads ist Edge Computing besonders leistungsstark. Referenten von Open-Source-Lösungen wie K0s demonstrierten, wie Echtzeit-Inferenz am Rande die Cloud-Latenz beseitigen und gleichzeitig die Anforderungen an die Datenhoheit und den Datenschutz erfüllen kann.

Plattform-Entwicklung: Die Antwort auf die Kubernetes-Komplexität

Plattform-Engineering hat sich vom Schlagwort zur entscheidenden Disziplin entwickelt. Die Konferenz machte deutlich, dass Kubernetes im Rohzustand für die meisten Entwickler zu komplex für die Verwaltung und Wartung ist. Sie brauchen Abstraktionen, die ihnen Leistung bieten, ohne sie zu belasten.

Mehrere Redner zeigten, wie einheitliche Entwicklererfahrungen Ordnung in das Chaos bringen und die Einführungszeit von Wochen auf Tage reduzieren können.

Akamai App-Plattform veranschaulicht diese Plattform-Engineering-Prinzipien, indem sie Kubernetes sofort produktionsreif macht. Sie beseitigt die Komplexität der Bereitstellung und Verwaltung von Kubernetes-Anwendungen, indem sie einen vorkonfigurierten Stapel von Tools für CI/CD-Pipelines, Netzwerkrichtlinien, Speicher und Beobachtbarkeit sowie Golden-Path-Vorlagen bereitstellt, damit Entwickler die Leistung von Kubernetes ohne den betrieblichen Aufwand nutzen können.

eBPF und WebAssembly: Produktionsreife Technologien

Zwei Technologien, die schon seit Jahren in Aussicht gestellt wurden, haben endlich bewiesen, dass sie produktionsreif sind:

eBPF (Extended Berkeley Packet Filter) hat sich als unverzichtbar für:

  • Nicht-invasive Leistungsüberwachung ohne Anwendungsänderungen
  • Durchsetzung der Netzsicherheit auf Kernel-Ebene 
  • Beobachtbarkeit ohne Aufwand bei der Fehlersuche
  • Analyse und Filterung des Datenverkehrs in Echtzeit

WebAssembly (Wasm) gewinnt an Zugkraft:

  • Edge-Computing-Szenarien, bei denen Container zu schwer sind
  • Edge- und serverlose Funktionen.
  • Plugin-Systeme zur Erweiterung der Plattformfunktionen
  • Plattformübergreifende Portabilität ohne Containerisierung

Diese Technologien sind besonders wertvoll für Unternehmen, die LKE einsetzen, da eBPF tiefe Einblicke in das Cluster-Verhalten bietet und WebAssembly leichtgewichtige Arbeitslasten am Rande ermöglicht, während die Integration mit der Kubernetes-Kerninfrastruktur erhalten bleibt. Über unseren Partner Fermyon können WebAssembly-Funktionen auf Akamai ausgeführt werden, was einen neuen Ansatz für schnelle, leichtgewichtige Serverless-Workloads am Rande darstellt. Die Integration von Fermyon ist perfekt für ereignisgesteuerte Architekturen und Anwendungsfälle mit niedriger Latenz. Fermyon ist auch der Schöpfer der CNCF-Projekte SPIN und SpinKube. 

Blick in die Zukunft

Die Erkenntnisse der KubeCon + CloudNativeCon India 2025 lassen sich in klare Maßnahmen für Unternehmen umsetzen:

  • Bewertung des Plattform-Engineerings als strategische Initiative, nicht nur als technische Initiative
  • Bereiten Sie sich auf KI-Workloads vor, indem Sie sicherstellen, dass Ihre Kubernetes-Infrastruktur GPU und verteiltes Training bewältigen kann.
  • Erkundung von Edge-Implementierungen für Anwendungsfälle, die lokale Verarbeitung, geringere Latenzzeiten oder Datenhoheit erfordern
  • Bereiten Sie sich darauf vor, dass die Verwaltung von mehreren Clustern unentbehrlich wird, wenn Unternehmen ihre Arbeitslasten über die Cloud, Rechenzentren und den Edge-Bereich verteilen.
  • Verstehen Sie, dass die Entwicklererfahrung die Geschwindigkeit bestimmt, da jeder Reibungspunkt in Ihrer Plattform direkte Auswirkungen auf die Geschäftsergebnisse hat.
  • Ziehen Sie verwaltete Lösungen wie Akamai App Platform und LKE in Betracht, wenn die Einfachheit des Betriebs wichtiger ist als eine detaillierte Kontrolle.

Wie mehrere Redner betonten, gehört die Zukunft Plattformen, die die Leistung von Kubernetes ohne die damit verbundenen Probleme bieten und es den Entwicklern ermöglichen, sich auf das Wesentliche zu konzentrieren, d. h. die Bereitstellung von Code, der einen geschäftlichen Nutzen bringt.

Basierend auf der diesjährigen Dynamik verspricht die KubeCon India in Mumbai im nächsten Jahr noch mehr Innovationen aus dem blühenden indischen Cloud-Native-Ökosystem zu präsentieren.

Vielleicht interessiert Sie auch ...

Kommentare

Kommentar abgeben

Ihre E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit *gekennzeichnet