
엔비디아의 GPU는 AI 작업량의 주요 플랫폼이므로 더 효율적인 냉각 시스템이 필요한 막대한 전력을 소비합니다. 아마존은 시스템 전체를 대대적으로 개편하지 않고도 현재 및 미래 데이터 센터 모두에 통합할 수 있는 화물 열교환기(In-Row Heat Exchanger - IRHX 8-)라는 새로운 솔루션을 설계했다고 밝혔습니다.
AWS의 컴퓨팅 및 머신러닝 부문 부사장인 데이브 브라운은 '현재 액체 냉각 솔루션은 너무 많은 면적을 차지하고 많은 물을 사용하며 이는 우리 규모에 적합하지 않습니다.'라고 말했습니다.
이전에는 공랭 시스템이 기존 Nvidia GPU에 충분했습니다. 그러나 Nvidia GB200 NVL72와 같은 새로운 세대는 단일 마운트에 최대 72개의 GPU를 통합하여 Amazon은 인프라를 업그레이드해야 했습니다.
AWS는 엔비디아의 블랙웰 디자인을 사용하여 거대한 컴퓨팅 성능을 제공하고 대규모 AI 모델의 훈련 및 운영을 지원하는 새로운 P6e 서버 라인을 출시했습니다. 아마존 이전에는 GB200 NVL72 기반 시스템이 마이크로소프트와 CoreWeave를 통해 제공되었습니다.
세계 최대 클라우드 공급업체인 아마존은 오랫동안 AI 칩 서버 및 네트워크 라우터와 같은 하드웨어를 자체 개발하여 제3자 의존도를 줄이고 이익을 늘려왔습니다. AWS는 현재 2025년 1분기에 2014년 이후 가장 높은 이익률로 아마존의 순이익에 크게 기여하고 있습니다.
CNBC에 따르면 AWS의 가장 큰 경쟁사인 Microsoft도 자체 AI 하드웨어를 개발하고 있습니다. 2024년 Microsoft는 Maia 칩용 Sidekicks 냉각 시스템을 출시했습니다. 이 시스템은 회사에서 설계했습니다.