BTC
ETH
HTX
SOL
BNB
시장 동향 보기
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

Gonka 프로토콜 공동 창립자 Anastasia: 컴퓨팅 파워를 지배하는 자가 AI의 미래를 암묵적으로 지배한다

Gonka_ai
特邀专栏作者
@gonka_ai
2026-03-03 07:47
이 기사는 약 5074자로, 전체를 읽는 데 약 8분이 소요됩니다
더 통제 가능하고 안전한 AI 생태계를 구축하기 위해 컴퓨팅 파워 획득 방식을 혁신하는 방법.
AI 요약
펼치기
  • 핵심 관점: Gonka 공동 창립자는 AI 산업의 핵심 병목과 권력의 중심이 모델에서 기반 컴퓨팅 파워로 이동하고 있으며, 그 중앙집중화가 혁신 장벽, 임대료 추출 모델 및 시스템적 취약성을 초래할 것이라고 보며, Gonka 프로토콜은 탈중앙화 네트워크를 통해 이 문제를 해결하고 더 통제 가능하고 안전한 AI 컴퓨팅 파워 인프라를 구축하는 것을 목표로 합니다.
  • 핵심 요소:
    1. 컴퓨팅 파워가 핵심 병목이 됨: 현대 AI의 주요 병목은 GPU, 전력 및 데이터 센터 용량을 확보하는 능력이며, 중앙집중식 인프라는 에너지 밀도, 냉각 등의 물리적 한계에 직면해 있습니다.
    2. 중앙집중식 컴퓨팅 파워의 세 가지 위험: 구조적 혁신 장벽을 구축하여 소규모 팀을 가격으로 배제함; '임대료 추출' 모델을 공고히 하여 지능의 광범위한 접근성을 억압함; 시스템적 취약성을 초래하여 규제, 정치적 또는 물리적 교란에 취약하게 만듦.
    3. Gonka의 효율성 설계: 프로토콜 설계는 거의 100%의 컴퓨팅 파워가 실제 AI 워크로드(주로 추론)에 사용되도록 보장하며, 보상과 거버넌스 가중치는 자본 보유가 아닌 측정된 컴퓨팅 파워 기여도에 기반합니다.
    4. 네트워크 오버헤드 감소를 위한 핵심 아키텍처: '시간 제한' 보안 및 측정 메커니즘(예: Sprint 주기)을 채택하고, 선택적, 평판 기반의 동적 검증을 통해 전체 검증 컴퓨팅 파워 비율을 약 10% 미만으로 제어합니다.
    5. 접근성 유지 원칙: 무허가 접근을 제공하고, 검증된 컴퓨팅 파워 비율에 기반한 보상을 지급하며, 컴퓨팅 파워 풀을 통한 자원 집합을 허용하는 동시에 대규모 컴퓨팅 파워 풀에 구조적 우위를 부여하지 않도록 합니다.
    6. 규제 대응 유연성: 현재 아키텍처는 무작위 라우팅을 통해 데이터 집중화를 줄입니다; 향후 커뮤니티 거버넌스를 통해 전용 서브넷이나 신뢰 실행 환경(TEE)과 같은 특정 규정 준수 요구 사항을 지원하도록 진화할 수 있습니다.
    7. AI 에이전트 경제 지원: OpenAI 호환 API를 제공하여 원활한 통합을 실현합니다; 가격은 네트워크 부하에 따라 동적으로 조정되며, 초기 비용은 중앙 집중식 제공업체보다 현저히 낮아 AI 에이전트가 자율적으로 자원을 최적화할 수 있도록 지원합니다.

핵심 요약: 대규모 모델 훈련은 데이터 센터 구축 또는 업그레이드가 필요합니다. 그러나 중앙화된 인프라는 현재 물리적 한계에 직면해 있습니다. 인프라 역량을 향상시키기 위해 AI는 더 큰 규모와 지능적 산출물을 창조하는 데 사용됩니다.

그러나 컴퓨팅 파워에 대한 통제는 AI 산업의 핵심 권력 노드가 되고 있습니다.

이때, Gonka가 등장했습니다. Gonka 프로토콜은 허가가 필요 없는 글로벌 네트워크로, 누구나 참여할 수 있으며 요청이 분산된 참여자들 사이에서 프로그래밍 방식으로 라우팅되도록 요청할 수 있습니다. 《Analytics Insight》과의 독점 인터뷰에서 Gonka 공동 창립자이자 수석 제품 관리자인 Anastasia Matveeva는 더 통제 가능하고 안전한 AI 생태계를 구축하기 위해 컴퓨팅 파워 접근 방식을 어떻게 혁신하고 있는지 논의했습니다.

질문: 대중의 AI 논의는 주로 모델의 중앙화 문제에 집중되지만, 컴퓨팅 파워 중앙화에 대한 관심은 상대적으로 적습니다. 왜 컴퓨팅 파워에 대한 통제가 AI 산업의 핵심 권력 노드가 되고 있나요? 이러한 집중이 혁신과 시장 전체에 어떤 위험을 초래할 수 있나요?

답변: 대중 논의는 종종 모델에 집중되는데, 그 이유는 모델이 보이기 때문입니다. 그러나 진정한 권력의 핵심은 더 깊은 곳에 있습니다 — 컴퓨팅 파워입니다. 이는 누가 AI 시스템을 구축, 배포 및 확장할 수 있는지를 결정하는 기반 계층입니다.

컴퓨팅 파워 통제가 중요해진 이유는 경제적 및 물리적 이유 때문입니다. 현대 AI의 주요 병목 현상은 더 이상 알고리즘이 아니라 GPU, 전력 및 데이터 센터 용량에 대한 접근 능력입니다.

대규모 모델 훈련은 점점 더 데이터 센터 구축 또는 업그레이드가 필요합니다. 그러나 중앙화된 인프라는 물리적 한계에 직면하고 있습니다: 에너지 밀도, 냉각 제약, 그리고 단일 장소가 감당할 수 있는 최대 전력 공급 능력. 업계는 극단적인 해결책을 시도하고 있습니다 — 칩 재설계, 냉각 시스템 및 새로운 에너지원.

이러한 집중은 체계적인 결과를 가져옵니다.

첫째, 구조적인 혁신 장벽을 구축합니다. 컴퓨팅 파워 접근은 능력 기반 경쟁이 아닌 인프라 특권이 됩니다. 소규모 팀, 독립 연구자, 심지어 전체 지역이 가격으로 배제되며, 실험 공간이 축소되고 혁신은 보수적으로 변합니다.

둘째, 컴퓨팅 파워 중앙화는 '임대료 추출' 모델을 공고히 합니다. AI는 '풍요'를 창출할 잠재력이 있습니다 — 지능은 본질적으로 복제 가능합니다 — 그러나 기반 인프라가 희소하고 통제될 때, 이 풍요는 인위적으로 억제됩니다. 시장은 비용 하락과 광범위한 접근성보다는 구독제, 잠금 효과 및 가격 결정권으로 전환됩니다.

셋째, 체계적인 취약성을 초래합니다. 첨단 컴퓨팅 파워가 소수의 운영자와 지리적 위치에 집중될 때, 규제, 정치적 또는 물리적 교란이 전체 AI 생태계에 영향을 미칩니다. 의존성은 선택 사항이 아닌 구조적인 것이 됩니다.

더 중요한 것은, 컴퓨팅 파워는 중립적이지 않다는 점입니다. 컴퓨팅 파워를 통제하는 자는 암묵적으로 무엇이 실행 가능하고, 허용되며, 경제적으로 지속 가능한지를 결정합니다. 이러한 통제가 중앙화될 때, AI의 거버넌스는 설계를 거치지 않고 기본적으로 형성됩니다.

위험은 독점뿐만 아니라 AI 발전 궤도의 장기적 왜곡입니다: 더 적은 건설자, 더 낮은 애플리케이션 다양성, 더 느린 하드웨어 혁신, 그리고 차세대 모델의 야망과 맞지 않는 인프라.

따라서 컴퓨팅 파워는 기반 인프라 — 경제적 및 물리적 측면에서 확장 가능한 아키텍처 — 로 간주되어야 하며, 이는 AI의 미래에 중요합니다.

질문: 많은 AI 컴퓨팅 파워 플랫폼 — 중앙화되었든 분산화되었든 — 이 효율성을 주장합니다. AI 컴퓨팅 파워 시스템의 효율성을 평가할 때 진정으로 중요한 지표는 무엇인가요? 이러한 모델은 일반적으로 어떤 측면에서 실제 제한에 직면하나요?

답변: 컴퓨팅 파워 효율성은 종종 마케팅 개념으로 사용됩니다. 실제로, 진정으로 중요한 것은 소수의 구체적인 지표뿐이며, 이는 사용자 측 성능, 제공자 운영 효율성 및 양자를 지배하는 인센티브 구조를 포괄합니다.

사용자에게 효율성은 속도와 비용 투명성을 의미합니다.

속도는 실제 수요 하에서의 지연 시간을 의미합니다. 중앙화된 허브는 물리적 동일 장소 배치로 인해 일반적으로 우위를 가집니다. 그러나 블록체인이 실시간 실행 경로에 참여하지 않고 보안 계층으로만 작동한다면, 분산화된 아키텍처도 유사한 성능을 달성할 수 있습니다. 요청이 체인 외부에서 처리되는 한, 프로토콜 자체는 지연 시간을 증가시키지 않습니다.

비용 투명성도 마찬가지로 중요합니다. '토큰당 비용'은 일반적인 KPI이지만, 모델 무결성은 종종 투명성이 부족합니다. 중앙화된 환경에서 제품은 블랙박스일 수 있습니다. 수요가 최고조에 달할 때, 제공자는 수익을 유지하기 위해 모델 구성을 조정할 수 있으며, 이러한 변화는 일반적으로 보이지 않지만 출력 품질에 영향을 미칠 수 있습니다. 진정한 효율성은 일관된 계산 정확도를 반영하는 가격 책정을 요구합니다.

제공자에게 효율성은 GPU 활용률과 탄력성 사이의 균형입니다.

중앙화된 운영자는 활용률 측면에서 뛰어난 성과를 보이며, 동일 장소 환경에서 GPU는 거의 최대 용량으로 실행될 수 있지만, 탄력성이 부족하여 수요가 낮을 때 유휴 비용을 부담해야 합니다.

분산화된 네트워크는 탄력성을 얻기 위해 어느 정도 활용률을 희생하지만, 합의 및 검증 오버헤드를 최소화하여 컴퓨팅 파워가 수요에 따라 다양한 워크로드 간에 재분배될 수 있도록 해야 합니다.

가장 중요한 것은 인센티브 설계입니다.

보상이 더 빠르고, 더 저렴하며, 검증 가능한 AI 워크로드와 연결될 때, 최적화는 구조적이 됩니다. 참여자는 하드웨어 효율성 향상, 지연 시간 감소, 전용 칩 시도에 대한 인센티브를 받습니다.

반대로, 보상 또는 거버넌스 가중치가 주로 자본 보유와 연결된다면, 최적화 방향은 인프라 성능에서 벗어나고, 비효율성이 고착화될 것입니다.

Gonka에서 효율성은 프로토콜 계층에 내장되어 있습니다: 거의 100%의 컴퓨팅 파워가 실제 AI 워크로드(주로 추론)에 사용됩니다. 보상과 거버넌스 가중치는 자본 보유가 아닌 측정된 컴퓨팅 파워 기여도를 기반으로 합니다.

진정한 효율성은 대부분의 컴퓨팅 파워가 실제 작업에 사용되고, 인센티브가 검증된 기여에 보상하며, 내부 오버헤드가 네트워크 규모에 따라 통제 불가능하게 증가하지 않을 때만 나타납니다.

질문: 분산화된 AI 컴퓨팅 파워 네트워크가 네트워크 자체 유지보다 실제 AI 워크로드에 대부분의 컴퓨팅 파워를 사용하는 것이 가능한가요? 핵심 아키텍처 선택은 무엇인가요?

답변: 가능합니다 — 그러나 오버헤드를 분산화의 불가피한 부산물이 아닌 핵심 아키텍처 제약 조건으로 간주하는 전제 하에만 가능합니다.

대부분의 분산화된 컴퓨팅 파워 네트워크는 AI 워크로드가 아닌 합의와 보안 유지를 위해 상당한 리소스를 사용합니다. 이는 생산적 작업과 보안 메커니즘이 분리되어 중복 계산을 초래하기 때문입니다.

대부분의 컴퓨팅 파워가 실제 AI 작업에 사용되도록 하려면 몇 가지 핵심 원칙이 필요합니다:

첫째, 보안 및 측정 메커니즘은 지속적으로 실행되는 것이 아니라 '시간 제한적'이어야 합니다. 증명 메커니즘은 명확한 짧은 주기 내에 집중되어야 하며, 지속적으로 리소스를 소비해서는 안 됩니다. Gonka에서 이것은 Sprint(구조화된, 시간 제한적 주기)를 통해 구현됩니다. 주기 외에는 하드웨어 리소스를 실제 AI 워크로드에 사용할 수 있습니다.

둘째, 각 작업에 대한 완전한 복제 검증보다는 선택적이고 평판 기반의 동적 검증 조정을 통해 중복을 줄입니다. 새로운 참여자의 작업은 100% 검증될 수 있습니다; 평판이 구축됨에 따라 검증 비율은 약 1%까지 낮출 수 있습니다. 전체 검증 컴퓨팅 파워 비율은 보안을 유지하면서 약 10% 미만으로 통제될 수 있습니다.

속임수를 시도하는 참여자는 보상을 받지 못하므로, 속임수는 경제적으로 불합리해집니다.

셋째, 보상과 거버넌스 가중치는 자본 보유가 아닌 검증된 컴퓨팅 파워 기여도와 연결되어야 합니다.

합의가 가볍고, 검증이 적응적이며, 인센티브가 생산적 계산과 일치할 때, 분산화된 컴퓨팅 파워는 진정으로 실제 워크로드를 제공할 수 있습니다.

질문: 분산화된 AI 컴퓨팅 파워 네트워크는 일반적으로 개방적 참여를 강조하지만, 인프라 요구 사항은 높은 진입 장벽을 만들 수 있습니다. 이러한 시스템이 규모를 확장하면서도 컴퓨팅 파워 수준이 크게 다른 참여자들에게 계속 접근 가능하게 유지하려면 어떻게 해야 하나요?

답변: 분산화된 네트워크는 AI 인프라에 대한 진입 장벽을 낮추는 것을 목표로 하지만, 장기적 생존 또한 중앙화된 제공자와 경쟁하고 현실 세계의 수요를 충족시켜야 합니다. 하드웨어 제약은 궁극적으로 하나의 핵심 요구 사항으로 귀결됩니다: 실제 시장 수요가 있는 모델을 호스팅할 수 있는 능력.

접근성을 유지하면서 규모를 확장하려면 몇 가지 원칙이 중요합니다.

첫째, 허가가 필요 없는 인프라 접근입니다. 단일 장치 운영자이든 대규모 데이터 센터이든, 모든 GPU 소유자는 승인 프로세스나 중앙화된 게이트키퍼 메커니즘 없이 네트워크에 참여할 수 있어야 합니다. 이는 구조적인 진입 장벽을 제거합니다.

둘째, 검증된 컴퓨팅 파워에 기반한 비례적 보상과 영향력입니다. 컴퓨팅 파워 가중치 기반 모델에서, 더 높은 계산 기여는 자연스럽게 더 많은 작업 점유율, 보상 점유율 및 거버넌스 가중치를 가져옵니다. 이것이 소규모 참여자를 대규모 참여자와 완전히 평등하게 만들지는 않습니다 — 그래서도 안 됩니다. 핵심은 규칙이 통일된다는 점입니다: 영향력은 실제 계산 기여도에 의해 결정되며, 자본, 위임 메커니즘 또는 금융 레버리지에 의해 결정되지 않습니다.

셋째, 컴퓨팅 파워 풀(Pools)의 역할입니다. 실제 인프라 요구 사항이 있는 시스템에서는 자원 집중이 자연스럽게 발생합니다. 컴퓨팅 파워 풀은 소규모 참여자가 자원을 통합하고, 변동성을 낮추며, 더 큰 규모의 워크로드에 참여할 수 있도록 합니다.

그러나 아키텍처는 대규모 컴퓨팅 파워 풀에 구조적 이점을 부여하거나 영향력의 과도한 집중을 유인해서는 안 됩니다. 컴퓨팅 파워 풀은 재중앙화 메커니즘이 아닌 조정 도구로 존재해야 합니다.

궁극적으로, 분산화된 AI 컴퓨팅 파워 네트워크의 규모 확장은 진입 장벽을 높이는 것을 의미해서는 안 됩니다. 이는 중립성, 투명성 및 일관된 참여 규칙을 유지하면서 전체 컴퓨팅 파워 용량을 높이고, 동시에 네트워크가 사용자를 위해 창출하는 실제 경제적 가치를 유지하는 것을 의미해야 합니다. 개방적 접근, 비례적 경제 메커니즘 및 통제된 집중 수준은 시스템이 성장하면서도 여전히 분산화된 상태를 유지하는지를 결정합니다.

질문: 왜 현재 시점에서 분산화된 AI 컴퓨팅 파워 문제가 특히 시급해졌나요? 만약 향후 몇 년 안에 이 문제가 해결되지 않는다면, 업계의 장기적 결과는 무엇이라고 생각하시나요?

답변: 이러한 시급성은 AI가 실험 단계에서 인프라 단계로 전환되고 있음을 반영합니다.

앞서 언급했듯이, 컴퓨팅 파워는 이미 물리적 병목 현상이 되었습니다. 확장 능력은 점점 더 자본 제약뿐만 아니라 에너지, 전력 밀도 및 데이터 센터 제약에도 영향을 받고 있습니다. 동시에, 첨단 GPU 및 초대규모 인프라에 대한 접근은 장기 계약, 기업 집중화 및 국가 전략적 우선순위의 영향을 받고 있습니다.

이러한 조합은 구조적 비대칭을 심화시킵니다. 대규모 인프라를 통제하는 주체는 그들의 이점을 공고히 하는 반면, 소규모 팀과 신흥 지역의 진입 장벽은 계속 상승합니다. 위험은 시장 집중화뿐만 아니라 글로벌 컴퓨팅 파워 격차의 확대입니다.

만약 이러한 추세가 지속된다면, 혁신은 아이디어

안전
투자하다
AI
Odaily 공식 커뮤니티에 가입하세요