Ir al contenido principal
BlogInformáticaPrincipales conclusiones de KubeCon + CloudNativeCon India 2025

Principales conclusiones de KubeCon + CloudNativeCon India 2025

El texto de su párrafo (4)

KubeCon + CloudNativeCon India 2025 terminó en Hyderabad la semana pasada, reuniendo a miles de desarrolladores, ingenieros de plataforma y profesionales nativos de la nube durante dos días de intenso aprendizaje y colaboración. La segunda edición anual de la India mostró no solo la evolución técnica de Kubernetes, sino también el cambio fundamental en la forma en que las organizaciones conciben la experiencia de los desarrolladores, la ingeniería de plataformas y las cargas de trabajo de IA en la nube, los centros de datos y los entornos periféricos.

Akamai participó en el evento como patrocinador de oro, demostrando las capacidades del producto diseñadas para simplificar las operaciones de Kubernetes y dar soporte a las cargas de trabajo de IA a escala.

A continuación, repasaré algunas de las principales conclusiones y tecnologías que surgieron de la conferencia, incluida K8s como sistema operativo para cargas de trabajo de IA Gen que darán forma a las estrategias nativas de la nube en el próximo año.

IA y Kubernetes: De la experimentación a la producción a escala

La convergencia de las cargas de trabajo de IA/ML con Kubernetes ha progresado decisivamente desde una prueba de concepto a una realidad de producción. La ponencia de Intuitpuso de manifiesto este hecho al destacar su plataforma nativa de IA, que multiplicó por 8 la velocidad de 8 000 desarrolladores. Una keynote de Janakiram MSV mostró por qué Kubernetes debería ser el sistema operativo para Gen AI. 

A lo largo de la conferencia, el mensaje fue claro: Kubernetes se ha convertido en la capa de orquestación de facto para las cargas de trabajo de IA.

Entre los principales avances cabe citar:

  • Orquestación de cargas de trabajo GenAI
    En lugar de depender de herramientas personalizadas, los equipos utilizan cada vez más primitivas nativas de Kubernetes como CustomResourceDefinitions y StatefulSets. Esto significa que las canalizaciones de IA/ML pueden expresarse en el mismo lenguaje que los desarrolladores ya utilizan para otras cargas de trabajo.
  • Optimización de la programación de laGPU
    El entrenamiento y la inferencia de grandes modelos lingüísticos (LLM) requieren una asignación eficiente de GPU . Los nuevos avances permiten a los programadores de Kubernetes ajustar mejor las cargas de trabajo a los recursos de GPU .
  • Coordinación distribuida de agentes de IA
    Muchas aplicaciones de IA son un conjunto de agentes que cooperan entre sí. La capa de orquestación Kubernetes se aprovecha ahora para gestionar estos sistemas distribuidos, garantizando que escalen y se comuniquen de forma fiable. 
  • Inferencia de IA en tiempo real en el perímetro
    En lugar de enviar siempre los datos a la nube, la inferencia puede ejecutarse localmente en el perímetro. Esto evita la latencia potencial de la nube y aborda el rendimiento sin concesiones en materia de privacidad.

Para las organizaciones que ejecutan cargas de trabajo de IA, las plataformas gestionadas como Linode Kubernetes Engine (LKE) proporcionan la base necesaria para estas exigentes aplicaciones. LKE admite instancias deGPU , autoescalado e integraciones de marcos de ML, lo que ayuda a los desarrolladores a desplegar servicios de inferencia sin la complejidad de gestionar la infraestructura subyacente.

Kubernetes en la periferia: resolución de retos del mundo real

La computación perimetral surgió como un tema importante, con múltiples sesiones que demostraron cómo las distribuciones ligeras de Kubernetes están permitiendo la computación más cerca de las fuentes de datos. Estas sesiones también abordaron los retos de la computación de borde, haciendo hincapié en que la escala no se trata solo de ejecutar Kubernetes en dispositivos más pequeños, sino de gestionar cientos o miles de clústeres distribuidos de manera eficiente. 

La escala es algo que Kubernetes resuelve bien, ya que proporciona una orquestación coherente en todos los entornos. Cuando se combina con cargas de trabajo de IA, la computación de borde es especialmente potente. Los ponentes de soluciones de código abierto como K0s demostraron cómo la inferencia en tiempo real en el perímetro puede eliminar la latencia de la nube respetando la soberanía de los datos y los requisitos de privacidad.

Ingeniería de plataformas: La respuesta a la complejidad de Kubernetes

La ingeniería de plataformas ha pasado de ser una palabra de moda a una disciplina fundamental. La conferencia dejó claro que Kubernetes en bruto es demasiado complejo de gestionar y mantener para la mayoría de los desarrolladores. Necesitan abstracciones que proporcionen potencia sin dolor.

Varios ponentes demostraron cómo las experiencias unificadas de los desarrolladores pueden poner orden en el caos y reducir el tiempo de incorporación de semanas a días.

Akamai App Platform ejemplifica estos principios de ingeniería de plataformas haciendo que Kubernetes esté listo para la producción desde el primer momento. Elimina la complejidad de desplegar y gestionar aplicaciones Kubernetes proporcionando una pila preconfigurada de herramientas para canalizaciones CI/CD, políticas de red, almacenamiento y observabilidad, así como plantillas de ruta dorada para que los desarrolladores puedan obtener la potencia de Kubernetes sin la sobrecarga operativa.

eBPF y WebAssembly: Tecnologías listas para la producción

Dos tecnologías que llevan años en el horizonte han demostrado por fin que están listas para la producción:

eBPF (Extended Berkeley Packet Filter) se ha convertido en esencial para:

  • Supervisión no invasiva del rendimiento sin cambios en la aplicación
  • Aplicación de la seguridad de red a nivel de núcleo 
  • Observabilidad cero para la resolución de problemas
  • Análisis y filtrado del tráfico en tiempo real

WebAssembly (Wasm) está ganando terreno en:

  • Escenarios de computación de borde en los que los contenedores son demasiado pesados
  • Funciones edge y serverless.
  • Sistemas de complementos para ampliar las funciones de la plataforma
  • Portabilidad multiplataforma sin contenerización

Estas tecnologías son particularmente valiosas para las organizaciones que utilizan LKE, donde eBPF puede proporcionar una profunda observabilidad en el comportamiento del clúster y WebAssembly puede permitir cargas de trabajo ligeras en el extremo, manteniendo la integración con la infraestructura central de Kubernetes. A través de nuestro socio Fermyon, las funciones de WebAssembly pueden ejecutarse en Akamai, mostrando un nuevo enfoque para cargas de trabajo rápidas y ligeras sin servidor en el edge. La integración de Fermyon es perfecta para arquitecturas basadas en eventos y casos de uso de baja latencia. Fermyon es también el creador de los proyectos CNCF SPIN y SpinKube. 

De cara al futuro

Las conclusiones de KubeCon + CloudNativeCon India 2025 se traducen en acciones claras para las organizaciones:

  • Evaluar la ingeniería de plataformas como una iniciativa estratégica, no sólo técnica.
  • Prepárese para las cargas de trabajo de IA asegurándose de que su infraestructura Kubernetes puede gestionar la programación de GPU y la formación distribuida.
  • Explore las implantaciones periféricas para casos de uso que requieran procesamiento local, latencia reducida o soberanía de datos.
  • Prepárese para que la gestión multiclúster se convierta en esencial a medida que las organizaciones distribuyan las cargas de trabajo en la nube, los centros de datos y el perímetro.
  • Comprenda que la experiencia del desarrollador determina la velocidad, ya que cada punto de fricción en su plataforma repercute directamente en los resultados empresariales.
  • Considere las soluciones gestionadas como Akamai App Platform y LKE cuando la simplicidad operativa sea más importante que el control granular

Como destacaron varios ponentes, el futuro pertenece a las plataformas que ofrecen la potencia de Kubernetes sin sus inconvenientes, lo que permite a los desarrolladores centrarse en lo que importa, es decir, enviar código que aporte valor empresarial.

Basándose en el impulso de este año, la KubeCon India del año que viene en Bombay promete mostrar aún más innovación del próspero ecosistema nativo de la nube de la India.

También te puede gustar...

Comentarios

Dejar una respuesta

Su dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *.