AI 인프라의 끝없는 진화: 우주 공간의 미·중 패권 경쟁부터 탈중앙화 컴퓨팅 네트워크까지
인공지능(AI) 시대의 핵심 과제는 막대한 연산 능력을 뒷받침할 인프라의 확충이다. 전력과 공간 등 지상 데이터센터가 직면한 물리적 한계를 극복하기 위해 테크 업계는 완전히 새로운 돌파구를 찾고 있다. 한쪽에서는 데이터센터를 아예 우주로 쏘아 올리며 국가 간 패권 경쟁을 벌이고 있으며, 다른 한편에서는 소수 기업에 종속된 폐쇄적인 AI 생태계를 벗어나기 위한 탈중앙화 연산 네트워크 구축이 속도를 내고 있다.
우주로 무대를 옮긴 AI 데이터센터 경쟁
최근 AI 인프라의 가장 파격적인 개척지는 우주 공간이다. 이 분야를 선점하기 위해 미국과 중국이 치열한 기술 경쟁을 벌이고 있다. 지난달 미국 우주항공 스타트업 스타클라우드가 단일 위성으로 AI 시범 구동에 성공하자, 중국은 즉각 실질적인 우주 데이터센터 운영 성과를 발표하며 맞불을 놨다.
중국 정보통신연구원 세미나에 참석한 왕야보 ADA스페이스 부사장은 자사의 1호 우주 데이터센터에서 알리바바의 AI 모델 ‘큐원-3’를 구동하고 있다고 밝혔다. 우주로 질문을 보내고 답변을 받기까지 걸리는 시간은 채 2분이 되지 않았다. ADA스페이스는 이미 고성능 AI 칩을 탑재한 인공위성 12기를 우주로 쏘아 올렸으며, 이 위성들은 각각 초당 744조 번의 연산 능력을 갖췄다. 중국 매체들은 위성이 수집한 데이터를 우주에서 즉각 연산하는 시대가 열렸다며, 기술 규모 면에서 미국을 앞질렀다고 평가했다.
무한한 에너지와 기술적 한계의 교차점
규모의 경제를 앞세운 중국은 2035년까지 2800기의 위성으로 구성된 거대한 우주 데이터센터를 구축한다는 ‘스타컴퓨팅’ 프로젝트를 진행 중이다. 15차 5개년 계획의 일환으로 중국 정부의 대규모 지원까지 등에 업었다. 이에 맞서는 미국은 압도적인 하드웨어 성능으로 승부를 보고 있다. 스타클라우드가 쏘아 올린 단 1장의 엔비디아 H100 칩은 초당 약 2000조 회의 연산이 가능해 ADA스페이스 위성 3대와 맞먹는 성능을 낸다. 오는 10월에는 성능이 더욱 향상된 블랙웰 칩을 우주로 보낼 예정이다. 이외에도 구글은 TPU를 탑재한 위성 프로젝트 ‘선캐처’를, 스페이스X는 스타링크 V3 위성의 데이터센터화를 추진 중이다.
우주 데이터센터의 장점은 명확하다. 운영 비용을 지상 대비 10배 이상 절감할 수 있다. 24시간 내내 태양광 에너지를 얻을 수 있고, 영하 270도까지 내려가는 극한의 환경 덕분에 가속기 냉각에 돈을 쓸 필요가 없다. 하지만 치명적인 단점도 존재한다. 우주의 고에너지 입자로부터 칩을 보호하기 위한 방사선 차단 설계가 필수적이며, 이로 인해 지상 대비 20~30%의 성능 저하가 발생한다. 위성 고장 시 수리가 사실상 불가능해 우주 쓰레기를 양산할 우려가 있고, 통신 지연 문제 탓에 자율주행이나 금융 트레이딩처럼 즉각적인 반응이 필수인 서비스에는 당장 도입하기 어렵다.
지상의 대안, 투명성을 무장한 탈중앙화 네트워크
물리적 공간을 우주로 확장하는 움직임 이면에서는, 거대 테크 기업들이 독점한 블랙박스 형태의 클라우드 인프라를 분산시키려는 소프트웨어적 혁신도 일어나는 중이다. 뉴욕에 기반을 둔 오픈그래디언트(OpenGradient)는 최근 a16z 크립토의 주도하에 950만 달러의 자금을 조달하며 개방형 연산 네트워크 확장에 나섰다. 코인베이스 벤처스를 비롯해 발라지 스리니바산 전 코인베이스 임원, 일리아 폴로수킨 니어(NEAR) 공동 창업자, 샌딥 네일왈 폴리곤 공동 창업자 등 굵직한 업계 인사들이 투자에 참여했다.
이들이 구축하는 ‘개방형 지능을 위한 네트워크(Network for Open Intelligence)’는 독립적인 블록체인이라기보다는 특화된 AI 보조 프로세서에 가깝다. 분산된 GPU 컴퓨팅 자원을 활용해 대규모 AI 모델을 호스팅하고 실행 결과를 암호학적으로 검증한다. 개발자들은 중앙화된 제공업체를 맹목적으로 신뢰하거나 막대한 비용을 들여 자체 검증 계층을 만들 필요 없이, 이 네트워크에 무거운 연산 작업을 아웃소싱할 수 있다.
투명한 AI 인프라에 대한 시장의 갈증은 이미 지표로 증명되고 있다. 본격적인 생태계 출범 전임에도 불구하고 오픈그래디언트는 플랫폼 전반에 걸쳐 6개의 활성 수익 모델을 창출했으며, 온체인 모델 저장소에 2000개 이상의 AI 모델을 확보하고 200만 명 이상의 사용자를 끌어모았다. 매튜 왕 오픈그래디언트 CEO는 폐쇄적인 소수 기업 중심으로 통합되어 가는 AI 생태계의 한계를 지적하며, 모델의 투명성과 실행의 입증 가능성을 보장하는 개방형 인프라야말로 개발자들이 진정으로 원하는 지능형 제품의 토대가 될 것이라고 강조했다.