BTC
ETH
HTX
SOL
BNB
시장 동향 보기
简中
繁中
English
日本語
한국어
ภาษาไทย
Tiếng Việt

AI는 460만 달러의 도난을 성공적으로 시뮬레이션했으며, 스마트 계약을 자율적으로 공격하는 방법을 학습했습니다.

Azuma
Odaily资深作者
@azuma_eth
2025-12-02 03:29
이 기사는 약 1864자로, 전체를 읽는 데 약 3분이 소요됩니다
AI 공격 카운트다운: AI 취약점 악용 성공률은 2%에서 55.8%로 급증했으며, 단일 취약점 스캔 비용은 1.22달러에 불과합니다.
AI 요약
펼치기
  • 核心观点:AI自主攻击智能合约已技术可行。
  • 关键要素:
    1. AI成功利用超半数历史漏洞合约。
    2. AI能发现并利用全新的零日漏洞。
    3. AI攻击成本低至1.22美元/合约。
  • 市场影响:智能合约安全窗口期将急剧缩短。
  • 时效性标注:中期影响。

원문기사 | Odaily Planet Daily ( @OdailyChina )

작성자|아즈마( @azuma_eth )

AI 분야의 선도적 기업이자 Claude LLM 모델 개발사인 Anthropic은 오늘 AI를 사용하여 스마트 계약을 자율적으로 공격하는 테스트를 발표했습니다(참고: Anthropic은 FTX의 투자를 받았으며, 이론적으로 현재 주식 가치는 FTX 자산의 취약점을 커버하기에 충분하지만 파산 관리팀에 의해 저렴한 가격에 매각되었습니다).

최종 테스트 결과는 수익성 있고 재사용 가능한 AI 자율 공격이 기술적으로 실현 가능함을 보여줍니다. Anthropic의 실험은 시뮬레이션된 블록체인 환경에서만 수행되었으며 실제 블록체인에서 테스트되지 않았기 때문에 실제 자산에는 영향을 미치지 않았다는 점에 유의해야 합니다.

아래에서 Anthropic의 테스트 계획을 간략하게 소개해드리겠습니다.

Anthropic은 도난당한 자금의 총 가치를 시뮬레이션하여 AI 에이전트의 악용 역량을 측정하는 역사상 최초의 벤치마크인 스마트 계약 악용 벤치마크(SCONE-bench)를 최초로 구축했습니다. 즉, 이 벤치마크는 취약성 보상금이나 추측 모델에 의존하지 않고, 손실을 직접 정량화하고 온체인 자산의 변화를 통해 역량을 평가합니다.

SCONE-bench는 2020년부터 2025년까지 공격받은 405개의 실제 계약을 테스트 세트로 사용하며, 이 계약은 이더리움, BSC, 베이스의 세 가지 EVM 체인에 위치합니다. 각 대상 계약에 대해 샌드박스 환경에서 실행되는 AI 에이전트는 모델 컨텍스트 프로토콜(MCP)에서 제공하는 도구를 사용하여 제한된 시간(60분) 내에 지정된 계약을 공격합니다. 결과의 재현성을 보장하기 위해 Anthropic은 샌드박싱 및 확장 가능한 실행을 위해 Docker 컨테이너를 사용하는 평가 프레임워크를 구축했습니다. 각 컨테이너는 특정 블록 높이에서 포크된 로컬 블록체인을 실행합니다.

다음은 다양한 시나리오에 대한 Anthropic의 테스트 결과입니다.

  • 먼저, Anthropic은 405개의 벤치마크 취약 계약에 대해 Llama 3, GPT-4o, DeepSeek V3, Sonnet 3.7, o3, Opus 4, Opus 4.1, GPT-5, Sonnet 4.5, Opus 4.5 등 10개 모델의 성능을 평가했습니다. 전반적으로, 이 모델들은 207개(51.11%)에 대해 즉시 사용 가능한 익스플로잇 스크립트를 생성하여 5억 5,010만 달러의 절도를 시뮬레이션했습니다.
  • 둘째, 잠재적인 데이터 오염을 통제하기 위해 Anthropic은 동일한 10개 모델을 사용하여 2025년 3월 1일 이후 공격받은 34건의 계약을 평가했습니다 . 이 날짜를 선택한 이유는 3월 1일이 해당 모델의 지식 만료일이기 때문입니다 . 전반적으로 Opus 4.5, Sonnet 4.5, GPT-5는 이 중 19건(55.8%)을 성공적으로 악용하여 최대 460만 달러의 절도를 시뮬레이션했습니다. 가장 성능이 좋은 모델인 Opus 4.5는 이 중 17건(50%)을 성공적으로 악용하여 최대 450만 달러의 절도를 시뮬레이션했습니다.
  • 마지막으로, AI 에이전트의 새로운 제로데이 취약점 발견 능력을 평가하기 위해 Anthropic은 Sonnet 4.5와 GPT-5를 통해 2025년 10월 3일, 알려진 취약점이 없는 최근 배포된 계약 2,849건을 평가했습니다 . 각 AI 에이전트는 두 개의 새로운 제로데이 취약점을 발견하고 3,694달러 상당의 공격 계획을 생성했으며, GPT-5의 API 비용은 3,476달러였습니다. 이는 수익성이 높고 재사용 가능한 AI 기반 공격이 기술적으로 실현 가능함을 보여줍니다.

Anthropic이 테스트 결과를 발표한 후, Dragonfly의 매니징 파트너인 Haseeb를 비롯한 업계의 많은 유명 인사들은 AI가 이론에서 실제 응용 프로그램으로 발전한 놀라운 속도에 놀랐습니다.

하지만 이 속도는 과연 얼마나 빠른 걸까요? Anthropic은 이에 대한 답도 제시했습니다.

Anthropic은 테스트 결과에서 단 1년 만에 이 벤치마크 테스트에서 AI가 악용할 수 있는 취약점 비율이 2%에서 55.88%로 급증했고, 도난당할 수 있는 금액은 5,000달러에서 460만 달러로 급증했다고 밝혔습니다. 또한 Anthropic은 잠재적으로 악용 가능한 취약점의 가치가 1.3개월마다 약 두 배씩 증가하는 반면, 토큰 가격은 2개월마다 약 23%씩 감소한다는 사실을 발견했습니다. 이 실험에서 AI 에이전트가 스마트 계약의 철저한 취약점 검사를 수행하는 데 드는 평균 비용은 현재 1.22달러에 불과합니다.

Anthropic은 2025년에 블록체인에 대한 실제 공격의 절반 이상(아마도 숙련된 인간 공격자에 의해 수행되었을 것으로 추정됨)이 기존 AI 에이전트에 의해 완전히 자율적으로 수행될 수 있었을 것이라고 밝혔습니다. 비용이 감소하고 보안 기능이 강화됨에 따라, 블록체인에 배포된 후 취약한 계약이 악용되기 전의 기회 창은 계속 줄어들어 개발자가 취약점 탐지 및 패치를 적용할 시간이 점점 줄어들 것입니다. AI는 취약점을 악용하는 데 사용될 수 있지만, 패치를 적용하는 데에도 사용될 수 있습니다 . 보안 전문가들은 이에 대한 이해를 높여야 합니다. 이제 AI를 방어에 활용할 때입니다.

스마트 계약
AI
Odaily 공식 커뮤니티에 가입하세요