케임브리지 Akamai, 엔비디아 블랙웰 GPU 수천 개 도입 발표…분산형 AI 추론 인프라 강화
케임브리지에 본사를 둔 Akamai가 엔비디아 블랙웰 GPU 수천 개를 자사 분산 클라우드 인프라에 배치하겠다고 밝혔다. 회사 설명에 따르면 이번 투자는 대형 AI 학습용 슈퍼클러스터를 한곳에 집중하는 방식보다, AI 추론과 미세조정, 후처리 최적화 수요를 사용자와 더 가까운 지점에서 처리하는 데 무게를 둔 결정이다.
핵심은 Akamai가 기존의 CDN·보안 사업자 이미지에 더해, AI 워크로드를 처리하는 분산형 클라우드 사업자로서의 방향을 분명히 했다는 점이다. 회사는 이번 배치를 통해 지연시간에 민감한 추론 작업, 현장 또는 지역 단위의 미세조정, 배포 이후 모델 최적화 수요를 겨냥하고 있다고 설명했다.
공개된 내용에 따르면 Akamai의 AI 인프라는 NVIDIA RTX PRO 서버와 RTX PRO 6000 Blackwell Server Edition GPU, BlueField-3 DPU를 바탕으로 구성되며, 회사가 보유한 분산 클라우드와 글로벌 엣지 네트워크에 연결된다. Akamai는 자사 플랫폼이 전 세계 4,400개 이상 거점을 기반으로 운영된다고 밝혔다.
이번 발표는 Akamai가 지난해부터 강조해 온 ‘가까운 곳에서 돌리는 AI’ 전략의 연장선에 있다. 회사는 2025년 10월 Akamai Inference Cloud를 내놓으며 AI 추론을 사용자와 기기 가까이에서 처리하는 방향을 제시한 바 있다. 이번 블랙웰 GPU 도입은 그 구상을 실제 인프라 확장으로 옮기는 단계로 읽힌다.
기사의 초점은 어디까지나 회사가 발표한 사실에 있다. 현재 확인되는 내용은 Akamai가 수천 개 규모의 블랙웰 GPU를 확보해 분산 인프라에 배치하겠다고 밝혔고, 이를 AI 연구개발과 추론, 미세조정, 후처리 최적화에 활용하겠다는 점이다. 반면 실제 성능과 비용 경쟁력, 고객 채택 속도는 각 워크로드와 운영 환경에 따라 달라질 수 있어, 이번 발표만으로 시장 우위를 단정하기는 이르다.
실무적으로 보면 비교 기준은 비교적 분명하다. AI 인프라를 검토하는 기업이나 연구팀은 첫째 학습과 추론 수요를 분리해 계산하고, 둘째 데이터 이동 경로와 보안·규제 요구를 먼저 정리한 뒤, 셋째 중앙집중형 클러스터와 분산형 인프라 가운데 어느 쪽이 실제 지연시간과 운영비에 맞는지 따져보는 접근이 필요하다. 이번 발표는 그 선택지 가운데 Akamai가 분산 추론 쪽에 더 분명한 베팅을 했다는 사실을 보여준다.
보스턴권 독자에게 이번 소식은 지역 기업의 대형 AI 인프라 투자라는 의미보다, Akamai가 자사 네트워크 자산을 바탕으로 AI 인프라 사업 포지션을 넓히고 있다는 점에 더 가깝다. 향후 판단 기준은 추가 고객 사례, 반복 사용 사례의 형성, 그리고 분산형 AI 플랫폼이 실제 운영 환경에서 얼마나 안정적으로 쓰이는지에 모일 가능성이 크다.