메인 콘텐츠로 건너뛰기
블로그컴퓨팅KubeCon + CloudNativeCon India 2025의 주요 시사점

KubeCon + CloudNativeCon India 2025의 주요 시사점

단락 텍스트 (4)

지난주 하이데라바드에서 수천 명의 개발자, 플랫폼 엔지니어, 클라우드 네이티브 실무자들이 모여 이틀 동안 집중적인 학습과 협업을 진행한 KubeCon + CloudNativeCon India 2025가 막을 내렸습니다. 두 번째 연례 인도 에디션에서는 Kubernetes의 기술적 진화뿐 아니라 클라우드, 데이터센터, 엣지 환경 전반에서 개발자 경험, 플랫폼 엔지니어링, AI 워크로드에 대한 조직의 근본적인 사고방식의 변화를 보여주었습니다.

Akamai는 골드 스폰서로서 이 행사에 참가하여 Kubernetes 운영을 간소화하고 대규모 AI 워크로드를 지원하도록 설계된 제품 기능을 시연했습니다.

아래에서는 내년에 클라우드 네이티브 전략을 형성할 Gen AI 워크로드를 위한 운영 체제로서의 K8을 비롯하여 이번 컨퍼런스에서 나온 몇 가지 주요 내용과 기술에 대해 살펴보겠습니다.

AI와 쿠버네티스: 실험에서 프로덕션 규모까지

AI/ML 워크로드와 Kubernetes의 융합은 개념 증명에서 프로덕션 현실로 결정적으로 발전했습니다. Intuit의기조연설에서는 8,000명의 개발자의 작업 속도를 8배나 향상시킨 자사의 AI 네이티브 플랫폼을 강조하며 이를 뒷받침했습니다. Janakiram MSV의 기조연설은Kubernetes가 Gen AI의 운영 체제가 되어야 하는지를 보여주었습니다. 

컨퍼런스 전반에 걸쳐 분명한 메시지는 Kubernetes가 사실상 AI 워크로드를 위한 오케스트레이션 계층이 되었다는 것이었습니다.

주요 개발 사항 포함:

  • GenAI 워크로드 오케스트레이션
    사용자 정의 도구에 의존하는 대신, 점점 더 많은 팀들이 CustomResourceDefinitions 및 StatefulSets와 같은 기본 Kubernetes 프리미티브를 사용하고 있습니다. 즉, 개발자가 다른 워크로드에 이미 사용하고 있는 것과 동일한 언어로 AI/ML 파이프라인을 표현할 수 있습니다.
  • GPU 스케줄링 최적화
    대규모 언어 모델(LLM)에 대한 학습 및 추론에는 효율적인 GPU 할당이 필요합니다. 새로운 개선 사항을 통해 Kubernetes 스케줄러는 워크로드를 GPU 리소스에 더 잘 매칭할 수 있습니다.
  • 분산형 AI 에이전트 조정
    많은 AI 애플리케이션은 협력하는 에이전트의 모음입니다. 이제 이러한 분산 시스템을 관리하고 안정적으로 확장 및 통신할 수 있도록 Kubernetes 오케스트레이션 계층을 활용하고 있습니다. 
  • 엣지에서의 실시간 AI 추론
    항상 데이터를 클라우드로 다시 전송하는 대신 추론을 엣지에서 로컬로 실행할 수 있습니다. 이렇게 하면 잠재적인 클라우드 지연 시간을 피하고 개인정보 보호 절충안 없이 성능을 개선할 수 있습니다.

AI 워크로드를 실행하는 조직의 경우, 다음과 같은 관리형 플랫폼이 적합합니다. 리노드 쿠버네티스 엔진(LKE) 과 같은 관리형 플랫폼은 이러한 까다로운 애플리케이션에 필요한 기반을 제공합니다. LKE는 GPU 인스턴스, 자동 확장, ML 프레임워크 통합을 지원하여 개발자가 기본 인프라를 복잡하게 관리하지 않고도 추론 서비스를 배포할 수 있도록 도와줍니다.

엣지에서의 쿠버네티스: 실제 문제 해결

엣지 컴퓨팅이 주요 테마로 등장했으며, 여러 세션에서 가벼운 Kubernetes 배포가 데이터 소스에 더 가까운 컴퓨팅을 가능하게 하는 방법을 시연했습니다. 이 세션에서는 또한 엣지 컴퓨팅의 과제를 다루며, 확장성이란 단순히 작은 기기에서 Kubernetes를 실행하는 것이 아니라 수백 또는 수천 개의 분산 클러스터를 효율적으로 관리하는 것임을 강조했습니다. 

확장성은 환경 전반에서 일관된 오케스트레이션을 제공하기 때문에 Kubernetes가 잘 해결할 수 있는 문제입니다. AI 워크로드와 함께 사용하면 엣지 컴퓨팅은 특히 강력합니다. K0s와 같은 오픈 소스 솔루션의 연사들은 엣지에서의 실시간 추론이 어떻게 데이터 주권과 개인정보 보호 요건을 준수하면서 클라우드 지연 시간을 없앨 수 있는지 시연했습니다.

플랫폼 엔지니어링: Kubernetes 복잡성에 대한 해답

플랫폼 엔지니어링은 이제 유행어를 넘어 중요한 학문으로 자리 잡았습니다. 이 컨퍼런스에서는 대부분의 개발자가 관리하고 유지보수하기에는 원시 Kubernetes가 너무 복잡하다는 것이 분명해졌습니다. 개발자들은 고통 없이 강력한 성능을 제공하는 추상화가 필요합니다.

여러 연사가 통합된 개발자 환경이 혼란을 질서로 바꾸고 온보딩 시간을 몇 주에서 며칠로 단축하는 방법을 시연했습니다.

Akamai 앱 플랫폼 은 즉시 프로덕션 환경에서 사용할 수 있는 Kubernetes를 제공함으로써 이러한 플랫폼 엔지니어링 원칙의 모범을 보여줍니다. 이 플랫폼은 CI/CD 파이프라인, 네트워크 정책, 스토리지, 통합 가시성을 위한 사전 구성된 툴 스택과 골든 경로 템플릿을 제공하여 개발자가 운영 오버헤드 없이 Kubernetes의 성능을 활용할 수 있도록 함으로써 Kubernetes 애플리케이션 배포 및 관리의 복잡성을 제거합니다.

eBPF 및 웹어셈블리: 프로덕션 지원 기술

수년 전부터 주목받아온 두 가지 기술이 마침내 생산 준비가 완료되었음을 입증했습니다:

eBPF(확장 버클리 패킷 필터) 는 이제 필수 요소가 되었습니다:

  • 애플리케이션 변경 없이 비침습적 성능 모니터링
  • 커널 수준 네트워크 보안 적용 
  • 문제 해결을 위한 제로 오버헤드 통합 가시성
  • 실시간 트래픽 분석 및 필터링

웹어셈블리(Wasm) 가 주목받고 있습니다:

  • 컨테이너가 너무 무거운 엣지 컴퓨팅 시나리오
  • 엣지 및 서버리스 기능.
  • 플랫폼 기능 확장을 위한 플러그인 시스템
  • 컨테이너화 없는 크로스 플랫폼 이식성

이러한 기술은 특히 LKE를 사용하는 조직에 유용하며, eBPF는 클러스터 동작에 대한 심층적인 가시성을 제공하고 WebAssembly는 엣지에서 경량 워크로드를 지원하는 동시에 핵심 Kubernetes 인프라와의 통합을 유지할 수 있습니다. 파트너사인 Fermyon을 통해 WebAssembly 기능을 Akamai에서 실행하여 엣지에서 빠르고 가벼운 서버리스 워크로드를 위한 새로운 접근 방식을 보여줄 수 있습니다. Fermyon의 통합은 이벤트 중심 아키텍처와 지연 시간이 짧은 사용 사례에 적합합니다. Fermyon은 CNCF 프로젝트인 SPIN과 SpinKube의 개발사이기도 합니다. 

앞으로의 전망

KubeCon + CloudNativeCon India 2025에서 얻은 인사이트는 조직을 위한 명확한 조치로 이어집니다:

  • 플랫폼 엔지니어링을 단순한 기술적 이니셔티브가 아닌 전략적 이니셔티브로 평가하세요.
  • Kubernetes 인프라가 GPU 스케줄링과 분산 훈련을 처리할 수 있는지 확인하여 AI 워크로드에 대비하세요.
  • 로컬 처리, 지연 시간 단축 또는 데이터 주권이 필요한 사용 사례에 대한 엣지 배포 살펴보기
  • 조직이 클라우드, 데이터센터, 엣지 전반으로 워크로드를 분산함에 따라 멀티클러스터 관리가 필수적인 요소가 될 것에 대비하세요.
  • 플랫폼의 모든 마찰 지점이 비즈니스 성과에 직접적인 영향을 미치므로 개발자 경험이 속도를 결정한다는 점을 이해하세요.
  • 세분화된 제어보다 운영 간소화가 더 중요한 경우 Akamai 앱 플랫폼LKE와 같은 매니지드 솔루션을 고려하세요.

여러 연사들이 강조했듯이, 미래는 개발자가 비즈니스 가치를 제공하는 코드 배포라는 중요한 일에 집중할 수 있도록 고통 없이 Kubernetes의 성능을 제공하는 플랫폼이 될 것입니다.

올해의 모멘텀을 바탕으로 내년 뭄바이에서 열리는 KubeCon India에서는 인도의 번창하는 클라우드 네이티브 에코시스템에서 더 많은 혁신을 선보일 예정입니다.

추천 사항

내용

댓글 남기기

이메일 주소는 게시되지 않습니다. 필수 필드가 표시됩니다 *