BTC
ETH
HTX
SOL
BNB
시장 동향 보기
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

Computing power is recentralizing: After DeepSeek's price cuts, who will control AI's infrastructure?

Gonka_ai
特邀专栏作者
@gonka_ai
2026-04-29 08:50
이 기사는 약 3504자로, 전체를 읽는 데 약 6분이 소요됩니다
Starting with Gonka's speech at LA Hacks 2026.
AI 요약
펼치기
  • Core Thesis: Massive price cuts by models like DeepSeek are democratizing AI applications, but paradoxically accelerating the concentration of computing power among a few cloud giants (the four major cloud providers' CapEx is projected to reach $570.8 billion in 2026). The decentralized computing network Gonka attempts to integrate global idle GPUs through a PoW incentive mechanism, offering a structural alternative before the centralization of the computing layer is complete.
  • Key Elements:
    1. Model price cuts depend on abundant computing power, but global computing power is converging on a few nodes. Optical communications leader Lumentum's capacity through 2028 is nearly sold out.
    2. Bitcoin network's computing power has surpassed the combined total of Google, Microsoft, and Amazon cloud data centers, yet it's solely used for hash puzzles. A vast amount of idle GPU power lacks the coordination mechanisms for AI inference.
    3. Gonka redirects Proof-of-Work from hash computation to AI inference, ensuring nearly 100% of network computing contributions correspond to real tasks, with the token value pegged to physical computing costs.
    4. AI inference is expected to account for two-thirds of global computing consumption by 2026. Price cuts lead to exponential growth in demand, thereby strengthening the structural lock-in of players with large-scale computing power.
    5. Within less than a year of its mainnet launch, Gonka's aggregated computing power has expanded from 60 H100s to over 10,000 H100 equivalents, driven by spontaneous connections from hundreds of independent nodes worldwide.

4월 26일, DeepSeek가 V4 시리즈 API의 새로운 가격을 발표했습니다: 전체 입력 캐시 적중 가격이 출시 가격의 10분의 1로 인하되었고, Pro 버전은 한정 할인을 적용하여 백만 토큰 처리 비용이 0.025위안까지 낮아졌습니다. 이는 1년 전보다 약 100배 저렴한 수준입니다. A주 컴퓨팅 파워 섹터는 당일 일제히 상한가를 기록하며 시장은 열광했습니다.

그러나 환호성 뒤에는 아무도 정면으로 논의하지 않는 문제가 있습니다: 모델이 점점 더 저렴해질수록, 모델 실행에 필요한 컴퓨팅 파워는 점점 더 집중화되고 있다는 점입니다.

데이터는 거짓말을 하지 않습니다. 2025년 4분기, 마이크로소프트, 아마존, 메타, 구글 4대 클라우드 업체의 총 자본 지출은 전년 동기 대비 64% 증가한 1186억 달러에 달했습니다. 2026년 전체 자본 지출은 다시 전년 대비 53% 증가한 5708억 달러에 이를 것으로 예상됩니다. 같은 기간 구글은 2026년 TPU 칩 출하량 목표를 50% 상향 조정하여 600만 개로 늘렸습니다. 엔비디아 H100 시리즈의 납기 기간은 일부 시장에서 이미 수개월에 달하고 있습니다.

모델 계층의 가격 결정권은 개발자 쪽으로 기울고 있지만, 컴퓨팅 파워 계층의 통제권은 더 빠른 속도로 소수 거대 기업에게로 수렴되고 있습니다. 이것이 AI 시대의 은밀하지만 심각한 모순입니다.

이러한 배경 속에서, 2026년 4월 24일, Gonka 프로토콜의 공동 창업자 Daniil과 David Liberman이 LA Hacks 2026의 기조 연설 무대에 올랐습니다. UCLA의 최대 연례 대학 해커톤인 이 행사는 올해 Liberman 형제가 기조 연설자로 나서, 곧 이 업계에 진출할 수백 명의 최고 엔지니어들을 마주했습니다. 그가 던진 질문은 이 순간 더욱 선명해졌습니다: 분산형 컴퓨팅 파워, 아직 늦지 않았는가?

1. 가격 인하 물결의 이면

DeepSeek V4의 가격 인하 논리는 표면적으로는 기술 발전이 가져온 효율성 배당입니다. 새로운 어텐션 메커니즘이 토큰 차원을 압축하고 DSA 희소 어텐션과 결합하여 계산 및 메모리 요구량을 대폭 줄였기 때문입니다. 그러나 가격 인하가 지속될 수 있는 전제 조건은 어딘가에 충분히 넉넉하고 저렴한 컴퓨팅 파워가 존재한다는 것입니다.

현실은 이 '충분히 넉넉한' 컴퓨팅 파워의 공급원이 전 세계적으로 빠르게 소수 노드로 집중되고 있다는 것입니다. 광통신 선두 기업 Lumentum의 CEO Michael Hurlston은 얼마 전 현재 추세라면 2028년까지 회사의 생산 능력이 거의 모두 매진되었다고 밝혔습니다. 이는 개별 회사의 어려움이 아니라, 고속 성장하는 수요 앞에서 AI 인프라 공급망 전체가 겪고 있는 집단적 긴장 상태입니다.

Daniil은 LA Hacks 연설에서 간단하면서도 강력한 비교를 사용했습니다: 비트코인 네트워크의 컴퓨팅 파워는 이미 구글, 마이크로소프트, 아마존 세 클라우드 데이터 센터의 총합을 넘어섰습니다. 그러나 이 컴퓨팅 파워는 무엇을 하고 있을까요? 아무도 답을 필요로 하지 않는 해시 퍼즐을 푸는 데 사용되고 있습니다. 전 세계의 유휴 GPU 컴퓨팅 파워도 마찬가지입니다. 게이머 PC의 그래픽 카드, 대학 컴퓨터실의 서버, 중소 클라우드 서비스 제공업체의 잉여 자원을 합하면 규모는 방대하지만, 조정 메커니즘이 부족하여 AI 추론에 활용되지 못하고 있습니다.

Gonka가 해결하려고 하는 것이 바로 이 조정 문제입니다. 작업 증명 인센티브 메커니즘을 사용하여 전 세계에 흩어진 유휴 GPU를 조직화하여 실제 AI 추론 작업을 처리할 수 있는 네트워크로 만드는 것입니다.

2. 추론이 새로운 전장이다

DeepSeek의 가격 인하는 중국 인터넷에서 'AI 평등화'에 대한 광범위한 논의를 촉발했습니다. 그러나 간과된 세부 사항이 있습니다: 인하된 것은 '호출 가격'이지 '컴퓨팅 파워 비용'이 아닙니다. AI 애플리케이션이 대규모화됨에 따라 추론 호출량의 증가는 기하급수적입니다. 업계 예측에 따르면, 2026년까지 추론은 전 세계 AI 컴퓨팅 파워 소비의 약 3분의 2를 차지할 것입니다.

이것이 의미하는 바는 무엇일까요? 호출 가격이 한 자릿수 낮아질 때마다 실제로 필요한 총 컴퓨팅 파워는 더 많아질 뿐 줄어들지 않는다는 것입니다. 대규모 언어 모델의 '민주화'는 어떤 면에서는 오히려 컴퓨팅 파워 계층의 집중화를 가속화하고 있습니다. 대규모 컴퓨팅 파워를 보유한 플레이어만이 초저마진에서 추론 서비스 운영을 지탱할 수 있기 때문입니다.

이는 형성되고 있는 구조적 잠금 현상입니다. 추론 측의 물리적 컴퓨팅 파워를 장악하는 자가 AI 시대의 진정한 인프라 관문을 장악하게 됩니다. 이러한 관점에서 볼 때, 분산형 컴퓨팅 파워 네트워크의 의미는 단순히 '50% 저렴한' 비용 최적화를 넘어, 집중화 잠금이 완료되기 전에 구조적 대체 경로를 제공하는 데 있습니다.

3. 젊은 개발자에 대한 진정한 질문

LA Hacks 참가자들, 즉 캘리포니아 최고 대학 출신의 엔지니어와 제품 개발자들은 곧 낭만적이지 않은 엔지니어링 선택에 직면하게 됩니다: 자신의 제품을 어떤 컴퓨팅 파워 계층 위에 구축할 것인가?

당신의 AI 제품, 추론은 누구의 서버를 호출하는가?

그 플랫폼이 가격 정책이나 접근 정책을 조정할 때, 당신은 마이그레이션할 능력이 있는가?

당신이 구축하는 데 도움을 준 사용자 규모는 자신의 가치를 창출하는가, 아니면 플랫폼에 협상력을 제공하는가?

이러한 질문들은 Web2 시대에 이미 개발자들이 한 번 경험한 바 있습니다: 애플리케이션의 운명이 플랫폼 알고리즘이나 배포 규칙에 깊이 묶여 있을 때, '독립'은 수시로 재정의되어야 하는 단어가 됩니다. AI 시대의 컴퓨팅 파워 의존성은 동일한 논리를 인프라 계층에 복제할 것이며, 전환 비용이 더 높기 때문에 잠금 효과는 더욱 강력해질 것입니다.

해커톤은 하나의 형식으로서 내재된 반어법을 지닙니다: 36시간 안에 최소한의 자원과 가장 빠른 속도로 실행 가능한 무언가를 구축하는 것. 이것이 바로 분산형 네트워크 인센티브 메커니즘이 추구하는 상태입니다. Daniil이 LA Hacks 무대에 선 것은 단지 Gonka를 설명하기 위해서가 아니라, 이 무리에게 묻기 위해서였습니다: 여러분이 앞으로 할 일은 이 집중화 추세를 가속화하는 것인가요, 아니면 새로운 가능성을 창조하는 것인가요?

4. PoW 2.0: 하나의 엔지니어링 명제

Gonka는 작업 증명의 인센티브 구조를 해시 계산에서 AI 추론으로 재조정하여 네트워크 내 거의 100%의 컴퓨팅 파워 기여가 실제 작업에 직접 대응하도록 합니다. 이 메커니즘에는 엔지니어링상의 핵심 요구 사항이 있습니다: AI 추론 작업은 검증 가능하고 재현 가능해야 한다는 것입니다. 동일한 모델 가중치, 동일한 랜덤 시드 및 입력이 주어지면 모든 노드가 계산 결과를 복제하고 유효성을 검증할 수 있어야 합니다. 이것이 Gonka가 학술적 프로토타입에서 실행 가능한 네트워크로 나아가는 핵심 엔지니어링 난제입니다.

경제학적 관점에서 이 메커니즘의 의미는 다음과 같습니다: 토큰 가치는 유동성 심리가 아닌 물리적 컴퓨팅 파워 비용에 본질적으로 고정됩니다. 컴퓨팅 파워를 기여하는 채굴자는 보상을 받고, 컴퓨팅 파워를 호출하는 개발자는 비용을 지불하며, 전체 시스템의 인센티브 순환 고리는 어떤 중개인의 선의에 의존하지 않습니다.

물론 기술적 실행 가능성은 일부일 뿐입니다. 더 어려운 문제는 이것입니다: 컴퓨팅 파워 수요가 급증하고 대형 플레이어의 자본 지출이 수백억 달러 단위인 시대에, 커뮤니티의 자발적 기여로 조직된 분산 컴퓨팅 파워 네트워크가 규모 면에서 진정한 경쟁력을 가질 수 있을까요?

Gonka의 초기 데이터는 하나의 기준점을 제시합니다: 메인넷 출시 후 1년도 채 안 되어 네트워크 집계 컴퓨팅 파워는 H100 60개 상당에서 10,000개 이상으로 확장되었습니다. 이 속도는 중앙 집중식 조정이 아닌 전 세계 수백 개의 독립 노드의 자발적인 연결에서 비롯되었습니다. 이것이 규모 문제가 해결되었음을 증명하지는 않지만, 인센티브 메커니즘이 초기 성장을 효과적으로 주도했음을 보여줍니다.

5. 기회의 창 문제

역사적으로 인프라의 주도권은 종종 초기에 빠르게 수렴되었습니다. 철도 시대, 인터넷 시대, 모바일 인터넷 시대 모두 마찬가지였습니다. 매번, 표준이 굳어지기 전에 누군가는 끼어들 자리를 찾았고, 집중화가 완료된 후에야 참여권이 크게 축소되었음을 깨달은 사람들도 있었습니다.

AI 컴퓨팅 파워 인프라는 현재 어느 단계에 있을까요? 2026년 4대 클라우드 업체의 예상 자본 지출 5708억 달러로 볼 때 집중화는 이미 가속화되고 있습니다. 그러나 개발자의 실제 사용 패턴으로 볼 때, 공급 측면에는 여전히 효과적으로 통합되지 않은 대량의 자원이 존재합니다. 이 간극이 바로 분산형 네트워크가 구조적으로 존재할 수 있는 공간입니다.

Daniil은 연설에서 하나의 대비를 인용했습니다: 2000년 인터넷 버블 붕괴 이후 남은 것은 폐허가 아니라 전 세계에 깔린 광섬유 네트워크였으며, 이는 이후 20년간 디지털 경제의 운영을 지탱했습니다. AI 인프라 투자 열풍이 식은 후에 남게 될 것은 컴퓨팅 파워 프로토콜과 인센티브 메커니즘이며, 이는 다음 주기의 인프라가 될 것입니다. 문제는 어떤 프로토콜의 기본 논리가 충분히 견고하여 압박 속에서도 계속 작동할 수 있느냐는 것입니다.

이는 특정 프로젝트에 대한 문제가 아니라, 분산형 AI 분야 전체가 직면해야 할 문제입니다: 거버넌스 설계가 단일 지점 통제의 침식을 진정으로 저항할 수 있는가? 인센티브 메커니즘이 규모가 확장된 후에도 여전히 유효한가? 컴퓨팅 파워 네트워크의 분산화가 기술 실행 계층, 토큰 발행 계층, 업그레이드 의사 결정 계층의 세 가지 차원에서 동시에 성립하는가?

맺음말

DeepSeek의 가격 인하는 'AI 민주화'에 대한 이야기를 다시 뜨겁게 달궜습니다. 그러나 민주화된 추론 호출과 민주화된 컴퓨팅 파워 인프라는 서로 다른 두 가지입니다. 전자는 일어나고 있습니다. 후자가 일어날 수 있을지는 앞으로 몇 년 안에 얼마나 많은 사람들이 이것을 가벼운 서사가 아니라 해결할 가치가 있는 엔지니어링 문제로 진지하게 받아들이느냐에 달려 있습니다.

David 및 Daniil Liberman 소개

David와 Daniil Liberman은 분산형 AI 컴퓨팅 파워 네트워크 Gonka의 공동 창업자입니다. 두 사람은 Snap에서 제품 디렉터를 역임했으며, AI 개발 회사 Product Science Inc.를 설립하여 AI 분야에서 다년간深耕 했습니다.

Gonka는 현재 가장 많은 GPU를 보유한 분산형 AI 네트워크로, 개발자와 연구자에게 허가 없이 컴퓨팅 파워 자원에 접근할 수 있는 기회를 제공하며, 동시에 자체 네이티브 토큰 GNK를 통해 모든 참가자에게 보상합니다. 이 프로젝트는 2023년 1800만 달러의 자금 조달에 성공했으며, 2025년에는 5100만 달러의 추가 자금을 조달했습니다. 투자자로는 OpenAI 투자사인 Coatue Management, Solana 투자사인 Slow Ventures, Bitfury, K5, Insight and Benchmark의 파트너 등이 포함됩니다. 프로젝트의 초기 기여자로는 6 blocks, Hard Yaka, Gcore 등 Web2-Web3 분야의 저명한 선도 기업들이 포함되어 있습니다.

공식 웹사이트 | Github | X | Discord | Telegram | 백서 | 토크노믹스 |