AI 추론 서버가 새로 뜰 때마다 의례처럼 벌어지는 일이 있다. 수백 기가바이트짜리 모델 가중치가 Amazon S3에서 로컬 SSD로, 다시 DRAM을 거쳐 GPU의 HBM으로 네 단계를 이동한다. 그 과정이 끝나야 비로소 추론이 시작되고, GPU는 그 시간 내내 놀고 있다1. 수백만 달러짜리 클러스터가 데이터를 기다리며 멈추는 이 구조는 20년째 클라우드 AI 인프라의 가장 큰 병목으로 남아 있었고, 클라우드 파일시스템 스타트업 아킬(Archil)이 이 병목을 정면으로 겨냥했다. 거기에 1,100만 달러(약 143억원)가 붙었다1.
왜 S3-GPU 갭이었나 — 20년 묵은 병목이 AI 시대에 터졌다
Amazon S3는 클라우드 스토리지의 사실상 표준이다. 저렴하고 내구성이 높으며 사실상 무한히 확장된다. 그러나 AI 추론 환경은 근본적으로 다른 요구를 한다. LLM 하나를 서빙하려면 수백 기가바이트짜리 가중치 파일을 인스턴스가 뜰 때마다 로컬 디스크로 내려받아야 한다. 그 시간 동안 GPU는 아무것도 하지 못한다1. 오토스케일링이 잦은 환경일수록, 모델 크기가 클수록, 이 대기 비용은 기하급수적으로 쌓인다.
대안으로 자주 쓰이는 EBS(Elastic Block Store)는 빠르지만 비싸다. GPU 클러스터 규모로 EBS를 붙이면 스토리지 비용이 추론 총비용의 상당 부분을 차지하게 된다. 결국 현재 AI 인프라는 느리고 저렴한 S3와 빠르지만 비싼 EBS 사이에서 타협을 강요받고 있다. 이 구조는 2000년대 초 S3가 설계된 시점부터 이어져 온 것이다.
아킬의 창업자 헌터 리스(Hunter Leath)는 이 문제를 누구보다 구체적으로 아는 위치에 있었다. AWS EFS(Elastic File System)의 창립 엔지니어로서 클라우드 파일시스템 레이어 전체를 설계했고, 이후 넷플릭스에서 클라우드 스토리지 팀을 이끌며 초대형 워크로드의 스토리지 실전을 경험했다1. 자신이 만든 인프라가 안고 있는 구조적 한계를, 이번에는 새 회사로 공략하는 셈이다.
아킬이 내놓은 답은 파일시스템 레이어다. S3 버킷을 로컬 파일시스템처럼 마운트한다. POSIX를 완전히 호환하므로 코드 수정이 필요 없다1. 기존 AI 워크로드가 로컬 경로로 파일을 읽듯이 접근하면, 아킬의 레이어가 S3로부터 최적 경로로 데이터를 끌어온다. 결과는 직접 S3 접근 대비 30배 빠른 로딩, EBS 대비 90% 낮은 비용이다1. 속도와 비용을 동시에 잡는다는 주장이다.
이번 라운드와 함께 공개된 '서버리스 실행' 기능은 한 발 더 나아간다. 스토리지 위에서 bash 명령을 SQL처럼 실행하는 것이다1. 데이터가 있는 곳에서 연산이 돌아가는 구조로, 모델 전처리·파일 필터링 같은 작업을 별도 컴퓨트 없이 스토리지 레이어에서 끝낼 수 있다.
기존 스토리지 선택지 vs 아킬 — 같은 S3, 달라지는 경험
| 비교 항목 | S3 직접 접근 | EBS 블록 스토리지 | 아킬(Archil) |
|---|---|---|---|
| 모델 가중치 로딩 속도 | 기준선 (느림) | 빠름 | S3 대비 30배 빠름 |
| 스토리지 비용 | 저렴 | 고가 | EBS 대비 90% 절감 |
| 코드 변경 필요 여부 | S3 SDK 필요 | 별도 마운트 설정 | 없음 (POSIX 완전 호환) |
| GPU 유휴 시간 | 로딩 완료까지 전부 대기 | 감소 | 대폭 단축 |
| 스토리지 위 연산 | 별도 컴퓨트 필요 | 불가 | 서버리스 실행 내장 |
아킬이 쌓는 세 개의 해자
- 창업자 도메인 어드밴티지 헌터 리스는 AWS EFS를 처음부터 만든 엔지니어다1. 클라우드 파일시스템 레이어의 병목이 어디서 생기고 어떻게 우회할 수 있는지를 설계 레벨에서 이미 안다. 넷플릭스 클라우드 스토리지 팀장 경험은 초대형 워크로드의 실전 검증을 더한다1. 이런 배경은 기술 신뢰도를 높이는 동시에, 초기 엔터프라이즈 고객을 확보하는 네트워크로도 직접 작용한다.
- POSIX 호환 — 도입 장벽 제거 파일시스템 스타트업이 엔터프라이즈에서 실패하는 이유 중 하나는 마이그레이션 비용이다. 아킬은 이를 코드 변경 없는 마운트로 해결했다1. 기존 S3 버킷을 그대로 사용하면서 로컬 파일시스템처럼 접근할 수 있다는 것은, 도입 결정이 엔지니어링 팀 한 명의 판단만으로 끝날 수 있다는 뜻이다. 구매 사이클이 짧고, 거절 이유가 없다.
- 서버리스 실행 — 스토리지에서 컴퓨트로 확장 스토리지 위에서 bash 명령을 SQL처럼 실행하는 기능은 단순한 부가 기능이 아니다1. 데이터가 있는 곳에서 연산이 돌아가는 구조는 장기적으로 모델 전처리·파이프라인 자동화·파인튜닝 데이터 관리로 확장되는 기반이 된다. 스토리지 플레이어가 컴퓨트 레이어로 올라오는 전통적인 확장 경로다.
The Bet — S3와 GPU 사이, 아직 주인이 없다
AI 인프라에서 GPU와 모델은 빠르게 상품화되고 있다. 그 사이를 잇는 스토리지-컴퓨트 접합부는 아직 승자가 없다. 아킬은 POSIX 호환으로 도입 장벽을 낮추고, S3 대비 30배 성능·EBS 대비 90% 비용 절감으로 경제성을 입증했다1. AWS EFS 창립 엔지니어 출신 창업자는 클라우드 파일시스템 레이어를 가장 깊이 아는 인물 중 하나다. 베팅의 핵심은 이것이다 — S3와 GPU 사이의 20년 묵은 갭을, 기존 하이퍼스케일러가 아니라 이 팀이 먼저 닫을 수 있는가. 이 자리를 선점하면, 모든 AI 추론 인프라가 거쳐야 하는 레이어가 된다1.
다음 12개월에 지켜볼 지표 3개
- 엔터프라이즈 레퍼런스 공개 여부 현재까지 구체적인 고객 사례는 공개되지 않았다. 시리즈A 이후 12개월 안에 LLM 서빙 또는 대형 AI 워크로드 고객이 수치 기반의 공개 레퍼런스로 등장하는지가 기술 검증의 첫 번째 관문이다. 이 레퍼런스가 나온다면 다음 라운드 협상력이 달라진다.
- 서버리스 실행 기능의 실제 침투 비중 이번에 함께 공개된 서버리스 실행이 마케팅 피처에 그치는지, 고객의 실제 파이프라인에 녹아드는지를 지켜봐야 한다. 사용 비중이 올라갈수록 아킬은 스토리지 이상의 AI 운영 인프라 플레이어로 포지셔닝된다.
- 하이퍼스케일러와의 관계 설정 AWS·GCP·Azure 모두 자체 파일시스템·스토리지 제품을 갖고 있다. 아킬이 이들과 경쟁할지, 보완재로 공존할지, 혹은 인수 대상으로 이야기될지는 다음 라운드 전후로 가시화될 것이다. AWS EFS 창립 엔지니어 출신의 네트워크가 어떤 방향으로 작동하는지가 이를 가르는 변수다1.
그 자리가 인프라 표준이 될지, 아니면 하이퍼스케일러의 기능 업데이트로 흡수될지, 다음 12개월이 말해줄 것이다.



