원작자: Knower
원곡: 루피, 포사이트 뉴스
관련 뉴스:
TAO(Bittensor)의 유통 시장 가치는 US$15억을 초과하여 시장 가치 측면에서 상위 50개 암호화폐에 속합니다.

친구들, 오랜만이에요. 여러분 모두가 암호화폐 공간에서 최근 긍정적인 가격 움직임을 즐겼기를 바랍니다. 좋은 보상을 받기 위해 인공지능 암호화 프로젝트 Bittensor에 대한 정식 보고서를 작성하기로 결정했습니다. 저는 암호화폐 전문가가 아니기 때문에 인공지능에 대해 잘 모른다고 생각하실 수도 있습니다. 그러나 현실적으로 나는 암호화폐 이외의 AI 연구에 많은 여가 시간을 보내고 지난 3~4개월 동안 AI 공간의 중요한 업데이트, 발전 및 기존 인프라에 익숙해졌습니다.
일부 트윗의 표현이 부정확하고 분석이 부족함에도 불구하고 기록을 바로잡고 싶습니다. 이 기사를 읽고 나면 Bittensor에 대해 예상했던 것보다 훨씬 더 많은 것을 알게 될 것입니다. 이 보고서는 다소 긴 보고서이고, 많은 양의 사진과 스크린샷으로 인해 장황하게 말하려는 의도는 없었습니다. 요약을 얻기 위해 ChatGPT에 기사를 입력하지 마십시오. 나는 여기에 많은 시간을 투자하므로 전체 이야기를 그런 식으로 얻을 수는 없습니다.
제가 이 보고서를 작성하고 있을 때 친구(공교롭게도 암호화폐 트위터 KOL)가 AI + 암호화폐 = 금융의 미래라고 말했습니다. 이 글을 읽으실 때 이 점을 염두에 두시기 바랍니다.
인공 지능은 암호화폐가 세계를 장악하기 시작하는 퍼즐의 마지막 조각입니까, 아니면 우리의 목표를 향한 작은 발걸음입니까? 답을 찾는 것은 여러분의 몫입니다. 저는 단지 생각할 거리를 몇 가지 제공할 뿐입니다.
배경 정보
Bittensor의 말에 따르면, Bittensor는 본질적으로 통합 토큰 시스템에 위치한 수많은 분산형 상품 시장 또는 하위 네트워크를 작성하기 위한 언어입니다. 그 목표는 디지털 시장 권력을 사회의 가장 중요한 디지털 상품에 전달하는 것입니다. --AI.
Bittensor의 임무는 독특한 인센티브 메커니즘과 고급 하위 네트워크 아키텍처를 통해 OpenAI와 같은 거대 기업만이 달성할 수 있는 이전 모델과 경쟁할 수 있는 분산형 네트워크를 구축하는 것입니다. Bittensor는 체인에서 인공 지능 기능의 확산을 더 쉽게 하기 위해 블록체인의 도움으로 구축된 기계인 상호 운용 가능한 부품의 완전한 시스템으로 가장 잘 상상됩니다.
Bittensor 네트워크를 관리하는 두 가지 주요 플레이어가 있습니다. 이들은 채굴자와 검증자입니다. 채굴자는 보상을 받는 대가로 사전 훈련된 모델을 네트워크에 제출하는 개인입니다. 검증자는 이러한 모델 출력의 유효성과 정확성을 확인하고 사용자에게 반환할 가장 정확한 출력을 선택하는 일을 담당합니다. 예를 들어, Bittensor 사용자가 파생상품이나 역사적 사실과 관련된 간단한 질문에 답변하기 위해 AI 챗봇을 요청하면 현재 Bittensor 네트워크에서 실행 중인 노드 수에 관계없이 해당 질문에 대한 답변이 제공됩니다.
사용자가 Bittensor 네트워크와 상호 작용하는 단계는 다음과 같이 간략하게 설명됩니다. 사용자가 유효성 검사기에 쿼리를 보내고, 유효성 검사기가 이를 광부에게 전파하고, 유효성 검사기가 광부 출력의 순위를 매기고, 가장 높은 순위의 광부 출력이 전송됩니다. 사용자에게 돌아갑니다.
그것은 모두 매우 간단합니다.
인센티브를 통해 모델은 일반적으로 최고의 출력을 제공하며 Bittensor는 채굴자들이 더 정교하고 정확하며 고성능 모델을 도입하여 TAO(Bittensor 생태 토큰)의 더 큰 몫을 얻기 위해 서로 경쟁하는 긍정적인 피드백 루프를 생성합니다. 보다 긍정적인 사용자 경험을 장려합니다.
검증자가 되려면 사용자는 TAO의 최초 64개 보유자 중 한 명이어야 하며 Bittensor의 하위 네트워크(다양한 형태의 인공 지능에 대한 액세스를 제공하는 독립적인 경제 시장)에 UID를 등록해야 합니다. 예를 들어 서브넷 1은 텍스트 프롬프트를 통한 레이블 예측에 중점을 두고, 서브넷 5는 이미지 생성에 중점을 둡니다. 두 하위 네트워크는 작업이 매우 다르고 서로 다른 매개변수, 정확도 및 기타 특정 기능이 필요할 수 있으므로 서로 다른 모델을 사용할 수 있습니다.
Bittensor 아키텍처의 또 다른 주요 측면은 전체 서브넷 네트워크에 걸쳐 Bittensor에 사용 가능한 리소스를 배포하는 CPU와 유사한 Yuma 합의 메커니즘입니다. Yuma는 PoW와 PoS의 하이브리드로, 오프체인 인텔리전스를 전송하고 촉진하는 기능이 추가된 것으로 설명됩니다. Yuma는 Bittensor 네트워크의 대부분을 지원하지만 하위 네트워크는 Yuma 합의에 가입할지 여부를 선택할 수 있습니다. 세부 사항은 복잡하고 모호하며 다양한 서브넷과 해당 Github가 있으므로 일반적인 이해를 원한다면 Yuma 합의에 대한 하향식 접근 방식을 아는 것이 도움이 될 것입니다.

하지만 모델은 어떻습니까?
대중적인 믿음과는 달리 Bittensor는 자체 모델을 교육하지 않습니다. 이는 대규모 AI 연구실이나 연구 기관만이 감당할 수 있는 매우 비용이 많이 들고 시간도 오래 걸릴 수 있는 프로세스입니다. 나는 모델 훈련이 Bittensor에 포함되어 있는지에 대해 절대적인 답을 주려고 노력했지만, 내가 찾은 유일한 결과는 결론적이지 않습니다.

분산형 훈련 메커니즘은 발음하기가 조금 어렵지만 이해하는 것은 어렵지 않습니다. Bittensor 검증자는 Falcon Refined Web 6 T-Token 레이블이 지정되지 않은 데이터 세트에서 채굴자가 생성한 모델을 평가하는 연속 게임을 수행하는 임무를 맡아 타임스탬프와 다른 모델에 대한 손실이라는 두 가지 기준을 기반으로 각 모델을 평가합니다. 손실 함수는 특정 유형의 시뮬레이션에서 예측된 값과 실제 값의 차이를 설명하는 데 사용되는 기계 학습 용어로, 입력 데이터와 모델 출력에 따른 오류 또는 부정확성의 정도를 나타냅니다.

손실 함수와 관련하여 어제 Discord에서 가져온 sn 9(관련 하위 네트워크)의 최신 성능은 다음과 같습니다. 최소 손실이 반드시 평균 손실을 의미하는 것은 아닙니다.

Bittensor 자체가 모델을 훈련하지 않는다면, 또 무엇을 할 수 있습니까?!
실제로 LLM(대형 언어 모델)의 생성 프로세스는 훈련, 미세 조정 및 상황별 학습(약간의 추론 추가)이라는 세 가지 주요 단계로 나뉩니다.
몇 가지 기본 정의로 넘어가기 전에 LLM에 대한 Sequoia Capital의 2023년 6월 기사를 살펴보세요.보고서일반적으로 회사의 15%는 LLM API를 사용하는 것 외에도 처음부터 또는 오픈 소스 라이브러리를 기반으로 사용자 정의 언어 모델을 구축했습니다. 사용자 정의 모델 교육은 불과 몇 달 전에 비해 크게 증가했습니다. 이를 위해서는 컴퓨팅이 필요합니다. Hugging Face, Replicate, Foundry, Tecton, Weights Biases, PyTorch, Scale 등과 같이 사랑받는 회사의 스택, 모델 허브, 호스팅, 훈련 프레임워크, 실험 추적 등이 있습니다.”

처음부터 모델을 구축하는 것은 어려운 작업이며, 설문 조사에 참여한 창립자와 팀의 85%는 이를 수행할 의향이 없었습니다. 대부분의 스타트업과 독립 개발자가 외부 애플리케이션이나 소프트웨어 기반 서비스에서만 대규모 언어 모델을 활용하려는 경우 자체 호스팅, 결과 추적, 복잡한 교육 시나리오 생성 또는 가져오기 및 기타 다양한 작업의 워크로드가 너무 큽니다. AI 산업의 99%에서는 GPT-4나 Llama 2에 필적하는 것을 만드는 것이 불가능합니다.
이것이 바로 Hugging Face와 같은 플랫폼이 인기를 끄는 이유입니다. 웹 사이트에서 이미 훈련된 모델을 다운로드할 수 있기 때문입니다. 이는 AI 업계에 매우 익숙하고 일반적인 프로세스입니다.
미세 조정은 더 어렵지만 특정 틈새 시장에서 대규모 언어 모델 기반 애플리케이션이나 서비스를 제공하려는 사람들에게 적합합니다. 이는 다양한 변호사 관련 데이터 및 사례를 기반으로 미세 조정된 모델로 챗봇을 개발하는 법률 서비스 스타트업일 수도 있고, 가능한 생명공학 관련 정보를 기반으로 특별히 모델을 개발하는 생명공학 스타트업일 수도 있습니다.

목적이 무엇이든, 미세 조정은 모델에 개성이나 전문 지식을 추가로 통합하여 작업 수행에 더 적합하고 정확하게 만드는 것입니다. 유용하고 사용자 정의가 더 쉽다는 점은 부인할 수 없지만 모두가 어렵다는 데 동의합니다. 심지어 a16z도 마찬가지입니다.생각하다:

Bittensor가 실제로 모델을 훈련하지는 않지만 자신의 모델을 네트워크에 제출하는 채굴자는 이 정보가 대중에게 공개되지 않더라도(또는 적어도 검증하기 어렵더라도) 어떤 형태로든 모델을 미세 조정한다고 주장합니다. 채굴자는 경쟁 우위를 보호하기 위해 모델 구조와 기능을 비밀로 유지하지만 일부는 접근 가능합니다.

간단한 예를 들어보겠습니다. 상금이 100만 달러인 대회에 참가하고 모두가 누가 최고의 LLM을 보유했는지 확인하기 위해 경쟁하고 있다면, 모든 경쟁자가 GPT-2를 사용하고 있다면 귀하가 GPT를 사용하고 있음을 밝히시겠습니까? -4? 실제 상황은 이 예에서 설명한 것보다 더 복잡하지만 크게 다르지는 않습니다. 채굴자는 출력 정확도에 따라 보상을 받게 되며, 이는 더 적은 수의 모델이나 평균 성능이 낮은 모델을 미세 조정하는 채굴자에 비해 이점을 제공합니다.
이전에 상황별 학습에 대해 언급했는데 이는 아마도 제가 다루게 될 Bittensor가 아닌 정보의 마지막 부분일 것입니다. 그러나 상황별 학습은 보다 바람직한 출력을 달성하기 위해 언어 모델을 안내하기 위해 광범위하게 정의된 프로세스입니다. 추론은 모델이 입력을 평가할 때 지속적으로 겪는 프로세스이며, 훈련 결과는 출력 레이블의 정확도에 영향을 미칠 수 있습니다. 훈련은 비용이 많이 들지만 모델 생성 중에 팀이 지정한 훈련 수준에 모델이 도달할 준비가 된 경우에만 발생합니다. 추론은 항상 일어나고 있으며, 추론 과정을 촉진하기 위해 다양한 추가 서비스가 사용됩니다.
비트텐서 상태
배경 지식을 바탕으로 Bittensor 서브넷 성능, 현재 기능 및 향후 계획에 대해 자세히 살펴보겠습니다. 솔직히 말해서 이 주제에 관한 양질의 기사를 찾기가 어렵습니다. 운 좋게도 Bittensor 커뮤니티 회원들이 나에게 몇 가지 메시지를 보냈지만, 그때도 의견을 형성하는 데는 많은 노력이 필요했습니다. 나는 답변을 찾기 위해 그들의 Discord에 숨어 있었고, 그 과정에서 내가 회원으로 활동한 지 한 달 정도 되었지만 어떤 채널도 본 적이 없다는 것을 깨달았습니다(나는 Discord, 더 많은 Telegram 및 Slack을 사용하지 않습니다).
어쨌든 저는 Bittensor의 초기 비전이 무엇인지 살펴보기로 결정했으며 이전 보고서에서 찾은 내용은 다음과 같습니다.

다음 몇 단락에서 이에 대해 다루겠지만 구성성 이론은 유효하지 않습니다. 이 주제에 대한 연구가 있었습니다. 이전 스크린샷은 Bittensor 네트워크를 희소 혼합 모델로 정의한 것입니다(이 개념은 2017년 연구입니다).종이제출된).
Bittensor에는 하위 네트워크가 너무 많아서 이 보고서에서 전체 섹션을 해당 하위 네트워크에 할애할 필요성을 느꼈습니다. 믿거나 말거나, 이는 웹의 유용성에 중요하고 모든 기술을 뒷받침하지만 Bittensor의 웹사이트에는 이러한 기능과 작동 방식을 설명하는 전용 섹션이 없습니다. 트위터로 물어보기도 했는데, 서브넷의 비밀은 디스코드에 몇시간씩 놀고, 각 서브넷의 동작을 스스로 배워본 사람들만이 알 수 있는 것 같습니다. 내 앞에 놓인 엄청난 일에도 불구하고 나는 몇 가지 일을 했습니다.
서브넷 1(종종 sn 1로 약칭됨)은 Bittensor 네트워크에서 가장 큰 서브넷이며 텍스트 생성 서비스를 담당합니다. sn 1의 상위 10개 검증자(다른 서브넷에도 동일한 상위 10위 순위 사용) 중에는 약 400만 개의 TAO가 스테이킹되어 있고, 그 다음으로 sn 5(이미지 생성 담당)가 약 385만 개의 TAO 서약을 보유하고 있습니다. 그런데 이 모든 데이터는 다음에서 확인할 수 있습니다.TaoStats에서 발견되었습니다.
다중 모드 하위 네트워크(sn 4)에는 약 340만 개의 TAO가 있고, sn3(데이터 스크래핑)에는 약 340만 개의 TAO가 있으며, sn 2(다중 모드)에는 약 370만 개의 TAO가 있습니다. 최근 급속히 성장한 또 다른 하위 네트워크는 sn 11인데, 이는 텍스트 훈련을 담당하며 sn 1과 비슷한 수의 TAO 서약을 가지고 있습니다.
Sn 1은 또한 40/128명이 넘는 활성 검증자와 991/1024명이 넘는 활성 채굴자를 보유한 채굴자 및 검증자 활동 측면에서 절대적인 선두주자입니다. Sn 11은 실제로 2017/2048로 모든 서브넷 중 가장 많은 채굴자를 보유하고 있습니다. 아래 차트는 지난 한 달 반 동안의 서브넷 등록 비용을 보여줍니다.
현재 서브넷을 등록하는 데 드는 비용은 182.12 TAO입니다. 이는 10월 최고치인 7,800 TAO에 비해 크게 감소한 수치입니다. 하지만 그 숫자가 정확한지는 확실하지 않습니다. 그럼에도 불구하고 22개 이상의 등록된 하위 네트워크와 Bittensor의 관심이 증가함에 따라 조만간 더 많은 하위 네트워크가 등록되는 것을 보게 될 것입니다. 이러한 하위 네트워크 중 일부는 견인력을 얻는 데 시간이 걸리는 것 같습니다.
다른 하위 네트워크에 관한 한, sn 9는 훈련 전용의 멋진 하위 네트워크입니다.

다음은 Bittensor에 대한 설명입니다.크롤링 서브넷지시사항:

하위 네트워크 모델은 매우 독특하며 전문가 혼합(MoE)이라고 불리는 기계 학습 연구의 일반적인 기술의 한 예입니다. 여기서 모델은 전체 작업을 할당하는 대신 여러 부분으로 나누어 개별 레이블을 제공합니다. Bittensor는 통합 모델이 아니라 실제로는 반 무작위 방식으로 쿼리되는 모델 네트워크이기 때문에 이것이 나에게 흥미로웠습니다. 이 프로세스의 예로는 인바운드 사용자가 쿼리한 상위 10개 채굴자를 무작위로 샘플링하는 sn 1을 기반으로 구축된 제품인 BitAPI가 있습니다. 특정 하위 네트워크에는 수십 또는 수백 명의 채굴자가 있을 수 있지만, 가장 성능이 좋은 모델은 더 큰 보상을 받습니다.
기능을 추가하거나 스택하기 위해 여러 모델을 결합하거나 합성하는 것은 현재 불가능합니다. 이는 대규모 언어 모델이 작동하는 방식이 아닙니다. 저는 커뮤니티 회원들과 함께 추론하려고 노력했지만 현재 상태에서 Bittensor는 통합된 모델 컬렉션의 예가 아니라 단지 다양한 기능을 가진 모델 네트워크의 예라는 점을 주목하는 것이 중요하다고 생각합니다.
일부에서는 Bittensor를 ML 모델에 액세스할 수 있는 온체인 오라클과 비교했습니다. Bittensor는 블록체인의 핵심 논리를 하위 네트워크 검증과 분리하여 모델을 오프체인으로 실행하여 더 많은 데이터와 더 높은 계산 비용을 수용함으로써 더욱 강력한 모델을 달성합니다. 온체인에서 수행되는 유일한 프로세스는 추론이라는 것을 기억하실 것입니다. 아래를 참조하세요콘텐츠Bittensor의 설명에 대해 알아보세요:
커뮤니티의 많은 사람들이 Bittensor가 세상을 바꿀 것이라고 모든 사람을 설득하는 데 너무 집중하고 있다고 생각합니다. 실제로 그들은 인공 지능과 암호화폐가 상호 작용하는 방식을 바꾸려는 노력에 진전을 보이고 있습니다. 모델을 업로드하는 전체 광부 네트워크를 매우 똑똑한 슈퍼컴퓨터로 변환할 수 있을 것 같지 않습니다. 이는 기계 학습이 작동하는 방식이 아닙니다. 가장 성능이 뛰어나고 가장 비싼 모델이라 할지라도 일반 인공 지능(AGI)의 정의를 달성하려면 아직 수년이 걸립니다.
머신러닝 커뮤니티가 계속해서 반복되고 새로운 기능이 구현됨에 따라 AGI의 정의는 종종 다양해집니다. 그러나 기본 아이디어는 AGI가 인간과 똑같이 추론하고 생각하고 학습할 수 있다는 것입니다. 핵심 퍼즐은 과학자들이 인간을 강력한 신경망 시스템은 물론 인간의 정량화하기 어려운 의식과 자유 의지를 가진 존재로 분류한다는 사실에서 비롯됩니다.
현재 서브네트워크는 AI 기반 애플리케이션과 관련된 다양한 작업을 세분화하는 독특한 방법이며, Bittensor Network의 이러한 핵심 기능을 활용하려는 빌더를 유치하는 것은 커뮤니티와 팀의 책임입니다.
Bittensor가 암호화폐 외부의 기계 학습 분야에서 매우 효율적이라는 점도 여기에 추가할 가치가 있습니다. Opentensor와 Cerebras는 올해 7월에 BTLM-3 b-8k 오픈 소스 LLM을 출시했습니다. 그 이후로 BTLM은 Hugging Face에서 16,000회 이상 다운로드되었으며 매우 긍정적인 평가를 받았습니다.
어떤 사람들은 BTLM의 경량 아키텍처로 인해 BTLM-3 b가 Mistral-7 b 및 MPT-30 b와 동일한 범주에서 높은 순위를 차지하여 VRAM당 최고의 모델이 되었다고 말합니다. 다음은 BTLM-3 b가 적절한 평가를 받은 모델과 해당 데이터 접근성 분류를 나열하는 동일한 트윗의 차트입니다.

나는 트위터에서 Bittensor가 AI 연구를 가속화하기 위해 아무 것도 하지 않는다고 말했기 때문에 여기서 내 실수를 인정하는 것이 옳다고 생각합니다. 또한 BTLM-3 b는 가격이 저렴하고 대부분의 하드웨어에서 빠르게 실행되기 때문에 어떤 경우에는 검증에 사용된다고 들었습니다.
TAO는 무엇을 위해 사용되나요?
걱정하지 마세요. 토큰을 잊어버리지 않았습니다.
Bittensor는 비트코인에서 많은 영감을 얻었을 뿐만 아니라 OG 교과서 게임 플레이에서도 영감을 얻었으며 매우 유사한 토큰 경제 구조, 즉 최대 2,100만 TAO와 1,050만 블록마다 반감기 메커니즘을 통합합니다. 이 기사를 작성하는 시점을 기준으로 유통 중인 TAO의 수는 약 560만 개이며 시장 가치는 거의 8억 달러에 달합니다. TAO의 배포는 매우 공정한 것으로 간주되며 이 Bittensor는보고서초기 후원자들은 토큰을 받지 못했지만 진위 여부를 확인하기는 어렵지만 우리는 출처를 신뢰합니다.
TAO는 Bittensor 네트워크의 보상 토큰이자 액세스 토큰입니다.TAO 보유자는 거버넌스에 참여하거나 TAO를 사용하여 Bittensor 네트워크에 애플리케이션을 구축할 수 있습니다. 12초마다 1개의 TAO가 발행되며, 새로 발행된 토큰은 채굴자와 검증자에게 균등하게 분배됩니다.
제 생각에는 TAO의 토큰 경제학은 반감기를 통해 출시량을 줄이는 것이 채굴자 간의 경쟁을 심화시켜 자연스럽게 더 높은 품질의 모델과 더 나은 전반적인 사용자 경험을 가져오는 세상을 쉽게 상상합니다. 그러나 여기에도 문제가 있는데, 보상이 적으면 역효과가 나고, 강력한 경쟁을 유도하기는커녕 배치된 모델이나 경쟁하는 채굴자의 수가 정체되는 결과를 낳게 된다는 것입니다.
TAO의 토큰 유틸리티, 가격 전망, 성장 동인에 대해 계속해서 설명할 수 있지만 앞서 언급한 보고서는 이에 대해 꽤 잘 설명하고 있습니다. 대부분의 Crypto Twitter는 Bittensor와 TAO 뒤에 매우 견고한 내러티브가 있다는 것을 이미 확립했으며, 이 시점에서 제가 추가할 수 있는 어떤 것도 금상첨화를 더할 수는 없습니다. 외부의 관점에서 볼 때, 나는 이것이 꽤 건전한 토큰 경제이며 평범하지 않다고 말하고 싶습니다. 하지만 아직 대부분의 거래소에 상장되지 않았기 때문에 TAO를 구매하는 것이 현재 매우 어렵다는 점을 언급하고 싶습니다. 이 상황은 1~2개월 후에 바뀔 수 있으며, 바이낸스가 TAO를 곧 상장하지 않는다면 매우 놀랄 것입니다.
전망
나는 확실히 Bittensor의 팬이며 그들이 그들의 대담한 사명을 깨닫기를 바랍니다. Bittensor Paradigm 팀으로서기사에서 언급한 바와 같이 비트코인과 이더리움은 금융에 대한 접근을 민주화하고 완전히 무허가 디지털 시장이라는 아이디어를 현실로 만들기 때문에 혁명적입니다. Bittensor도 예외는 아니며 방대한 지능형 네트워크에서 인공지능 모델을 민주화하는 것을 목표로 합니다. 나의 지원에도 불구하고 그들이 달성하고자 하는 목표와는 여전히 거리가 멀다는 것이 분명하며, 이는 암호화폐로 구축된 대부분의 프로젝트에 해당됩니다. 이것은 단거리 경주가 아니라 마라톤이다.
Bittensor가 선두를 유지하려면 희소 하이브리드 모델 아키텍처, MoE 아이디어 및 분산된 방식으로 지능을 혼합하는 개념의 가능성을 확장하면서 채굴자들 사이에서 우호적인 경쟁과 혁신을 계속 추진해야 합니다. 이 모든 작업을 혼자서 수행하는 것은 충분히 어렵습니다. 여기에 암호화를 추가하면 훨씬 더 어려워집니다.
Bittensor는 아직 갈 길이 멀다. 최근 몇 주 동안 TAO에 대한 논의가 증가했지만 대부분의 암호화폐 커뮤니티는 Bittensor가 현재 어떻게 작동하는지 완전히 인식하지 못하고 있는 것 같습니다. 쉬운 해결책이 없는 몇 가지 명백한 질문이 있는데, 그 중 일부는 a) 고품질의 대규모 추론이 가능한지, b) 사용자 참여의 문제, c) 복합 대형 언어의 목표를 추구하는 것이 타당한지 여부입니다. 모델.
믿거나 말거나, 탈중앙화 통화 내러티브를 지원하는 것은 실제로 상당히 어려운 일이지만, ETF에 대한 소문이 조금 더 쉬워지고 있습니다.
서로 반복하고 학습하는 지능형 모델의 분산형 네트워크를 구축하는 것은 사실이라고 믿기에는 너무 좋은 것처럼 들리며, 그 이유 중 하나는 그것이 사실이라는 것입니다. 배경 창과 대규모 언어 모델의 현재 제약 조건 내에서 AGI를 사용하면 최고의 모델이라도 여전히 제한되는 지점에 도달할 때까지 모델이 계속해서 자체적으로 개선되는 것은 불가능합니다. 그럼에도 불구하고 저는 Bittensor를 새로운 경제적 인센티브와 내장된 구성 가능성을 갖춘 분산형 LLM 호스팅 플랫폼으로 구축하는 것이 단순히 긍정적인 것 이상이며 실제로 현재 암호화폐 분야에서 가장 멋진 실험 중 하나라고 생각합니다.
AI 시스템에 재정적 인센티브를 통합하는 것은 어려운 일이며, Bittensor는 채굴자나 검증자가 어떤 형태로든 시스템을 조작하려고 시도하면 사례별로 인센티브를 조정할 것이라고 말했습니다. 다음은 토큰 출시가 90% 감소한 올해 6월의 예입니다.

이는 블록체인 시스템에서 완전히 예상되는 일이므로 비트코인이나 이더리움이 수명주기 전반에 걸쳐 100% 완벽할 것이라고 가정하지 맙시다.
암호화폐 채택은 역사적으로 외부인이 삼키기 어려운 약이었고, 인공지능 역시 마찬가지로 논란의 여지가 있었습니다. 이 두 가지를 결합하면 누구나 사용자 증가와 활동을 유지하는 데 시간이 좀 걸릴 문제가 발생합니다. Bittensor가 궁극적으로 복합 대형 언어 모델의 목표를 달성할 수 있다면 이는 매우 중요한 일이 될 수 있습니다.


