48시간 차단 후, Claude가 App Store 1위에 올랐습니다.
- 핵심 관점: OpenAI와 미국 국방부의 계약 체결로 인해 사용자들이 대규모로 ChatGPT를 거부하고 Claude로 전환한 것은 단순한 비즈니스 경쟁이 아닙니다. 이는 Anthropic과 OpenAI의 AI 군사 활용에 대한 안전 철학의 근본적인 차이를 드러냅니다: 전자는 법적 공백 속에서도 능동적으로 제한을 설정하려 하고, 후자는 기존 법률 체계에 의존합니다.
- 핵심 요소:
- 시장 반응 격렬: 이 사건으로 ChatGPT의 미국 일일 삭제량이 295% 급증했고, 1성 리뷰는 775% 증가했습니다. 반면 Claude 다운로드량은 51% 증가하며 App Store 무료 앱 차트 1위에 올랐습니다.
- 제품의 정확한 반격: Anthropic은 적시에 '기억 이전 도구'를 출시하고 기억 기능을 무료로 개방하여 사용자의 ChatGPT 전환 비용을 크게 낮췄습니다.
- 계약 조항의 차이: 논란의 핵심은 국방부가 AI가 '모든 합법적인 목적'에 사용될 수 있도록 요구한 것입니다. Anthropic은 이 조항을 거부하고 두 가지 구체적인 금지 조항을 명시적으로 삽입하자고 고집하여 계약을 잃었습니다. 반면 OpenAI는 해당 조항을 수용했지만 계약서에 동일한 보호 조항이 있다고 주장했습니다.
- 안전 철학의 차이: OpenAI의 기준선은 '불법적인 일을 하지 않는 것'인 반면, Anthropic의 기준선은 '법적으로 금지되지는 않았지만 해서는 안 된다고 생각하는 일'까지 확장됩니다. 이로 인해 서로 다른 비즈니스 선택과 내부 논쟁이 발생했습니다.
- 브랜드 내러티브의 양면성: Anthropic은 오랫동안 '문명 수준의 위험 방지' 내러티브를 강조해 왔습니다. 이로 인해 군사 계약을 잃고 안전 위험으로 분류되기도 했지만, 동일한 내러티브가 예상치 못하게 많은 일반 사용자의 도덕적 지지를 얻어 사용자 급증을 이끌었습니다.
- 비즈니스 영향의 현격한 차이: Anthropic이 잃은 군사 계약 가치는 약 2억 달러이지만, 연간 수익은 140억 달러에 달하며 최근 가치는 3800억 달러로 평가됩니다. 이는 사용자 증가가 가져올 수 있는 잠재적 가치가 계약 손실을 훨씬 초과함을 보여줍니다.
토요일 아침, 알트먼은 X에서 내부 편지 스크린샷을 리트윗했습니다.
편지는 그가 목요일 밤 OpenAI 직원들에게 쓴 것으로, 회사가 국방부와 협상 중이며 그가 '긴장 완화'에 도움이 되길 바란다고 말했습니다. 그는 이 편지를 리트윗하며 몇 줄의 설명을 덧붙였는데, 요지는 지난 며칠간 무슨 일이 있었는지 공개적으로 설명하고 싶다는 것이었습니다.

그가 이 트윗을 올렸을 때, Claude는 이미 미국 App Store 무료 차트에서 1위에 올라 있었습니다. 바로 전날까지 그 자리는 ChatGPT가 차지하고 있었죠.
Sensor Tower의 데이터는 이후 몇 시간 동안 일어난 일을 기록했습니다: 토요일 하루 동안, 미국에서 ChatGPT의 삭제량은 평소보다 295% 급증했고, 1성 리뷰는 775% 급증했습니다. 동시에 Claude의 다운로드 수는 하루 만에 51% 증가했습니다. Reddit에는 'Cancel ChatGPT'(ChatGPT 보이콧) 게시물이 물밀듯이 올라왔고, 사용자들은 구독 취소 스크린샷을 공유하며, 누군가는 댓글에 '내 인생 최고의 빠른 설치'라고 썼습니다. QuitGPT.org라는 웹사이트가 등장해 150만 명이 이미 행동에 나섰다고 주장했습니다.

월요일, 너무 많은 사용자가 몰려들어 Claude는 대규모 장애가 발생했습니다. 연방 정부가 '공급망 안보 위험'으로 지정한 그 회사는 사용자들이 물밀듯이 몰려들어 서버가 압박을 받았습니다.
정밀한 제품 반격
삭제 열풍이 한창인 같은 날, Anthropic은 기억 이전 도구를 출시했습니다.
기능 자체는 복잡하지 않습니다. 사용자가 프롬프트를 복사해 ChatGPT에 붙여넣고 저장된 모든 기억과 선호도를 출력하도록 한 다음, Claude에 붙여넣으면 Claude가 일괄 가져와서 ChatGPT를 떠난 지점부터 이어서 진행합니다. 공식 웹사이트의 카피는 단 한 문장입니다: "처음부터 다시 시작하지 않고 Claude로 전환하세요."

이 도구의 타이밍이 가장 중요한 속성입니다.
OpenAI 자체 데이터에 따르면, 2025년 중반까지 ChatGPT 사용자의 70% 이상이 비업무 관련 시나리오에서 사용하며, 일상적인 질의응답, 글쓰기, 엔터테인먼트, 정보 검색 등이 포함됩니다. 많은 사람들이 처음 접한 AI이며, 방대한 플러그인 생태계, Voice Mode, 깊이 통합된 타사 애플리케이션을 통해 일상에 스며들었습니다. 이러한 사용자들의 전환 비용은 단순히 '새 앱 다운로드'가 아니라, 당신을 모르는 AI가 처음부터 당신이 누구인지 알아가도록 다시 시작하는 것입니다. 기억의 축적은 과거에 남아 있는 가장 강력한 이유였습니다.
Anthropic 자체 연구 데이터에 따르면, Claude의 사용 시나리오는 매우 집중되어 있습니다. 프로그래밍 및 수학 작업이 34%로 단일 최대 카테고리를 차지하며, 교육 및 과학 연구는 지난해 가장 빠르게 성장한 분야입니다. 핵심 사용자는 개발자, 연구원 및 집중적인 필자로, 이들은 더 합리적이며, 전환 비용이 충분히 낮다면 명확한 가치 판단에 따라 도구를 교체하기 더 쉽습니다.
기억 이전 도구는 이 비용을 최소로 낮췄습니다. 동시에 Anthropic은 기억 기능을 무료 사용자에게 전면 개방한다고 발표했는데, 이 기능은 이전에 유료 전용이었습니다.

하지만 이번에 몰려든 사용자 중 상당수는 원래 Claude의 목표 사용자가 아닙니다.
소셜 미디어 피드백을 보면, ChatGPT에서 이전해 온 많은 일반 사용자들이 Claude를 처음 사용할 때의 반응은 종종 다음과 같습니다: "이건 다르네요." 누군가는 Claude의 답변이 더 깊이 있고, 무조건 찬성하기보다는 적극적으로 되돌아 밀어준다고 느낍니다. 누군가는 글쓰기가 더 깔끔하지만, 이미지를 생성하지 않으며 Voice Mode와 같은 상호작용 경험도 없다는 것을 발견합니다.
누군가는 '더 순종적인 ChatGPT 대체품'을 찾고 있었지만, Claude의 개성이 더 강하고 적응에 시간이 필요하다는 것을 발견했습니다. TechRadar의 한 이전 가이드가 이틀 동안 많이 공유되었는데, 제목은 '누군가 이걸 미리 말해줬으면 좋았을 텐데'였고, 글의 핵심 메시지는 다음과 같습니다: Claude와 ChatGPT의 사용 논리는 근본적으로 다르며, 전자는 입장이 있는 동료처럼, 후자는 만능 조수처럼 느껴집니다.
이러한 차이는 원래 두 제품 각각의 포지션이었지만, 이번 사건으로 인해 예상치 못하게 부각되었습니다. 사용자들은 도덕적 입장 때문에 Claude로 몰려왔지만, 예상과 다른 제품, 더 까다롭고 경계감이 더 강한 AI를 발견했습니다. 이는 원래 이탈 이유가 될 수 있었지만, 이 특별한 시점에서는 오히려 남는 이유가 되었습니다: 한 회사의 입장을 믿는다면, 그 제품의 논리를 받아들이기 더 쉬워집니다.
출시 후 며칠 후, Anthropic은 데이터를 공개했습니다: 무료 활성 사용자가 1월 대비 60% 이상 증가했고, 일일 신규 가입량은 네 배로 늘었습니다. Claude는 한때 접속량 과다로 장애가 발생해 수천 명의 사용자가 로그인 불가를 보고했으며, 몇 시간 내에 복구되었습니다.
계약서 속 세 글자: OpenAI는 무엇을 말했고, 무엇을 했나
Anthropic은 미국 군 기밀 네트워크에 AI 모델을 배치한 최초의 상업 회사로, Palantir를 통해 협력이 이루어졌으며 계약 가치는 약 2억 달러입니다. 그러나 지난 몇 달 동안 양측 관계는 계속 악화되었습니다. 논란의 핵심은 한 조항입니다: 국방부는 AI 모델이 '모든 합법적 용도'에 개방되고 어떠한 조건도 부과되지 않기를 요구했습니다. Anthropic은 두 가지 예외 사항, 즉 미국 시민에 대한 대규모 감시 및 완전 자율 무기 시스템에 사용 금지를 명시하길 고수했습니다.
2월 20일 전후, 보도에 따르면 Anthropic의 한 고위 임원이 1월 미군의 베네수엘라 대통령 마두로 체포 작전에서 Claude의 사용 방식에 대해 협력사 Palantir에 질의를 제기했고, 군 당국은 이에 강한 불만을 표시했습니다. 목요일, 국방부는 최후 통첩을 보내 Dario Amodei에게 당일 오후 5시까지 답변을 요구했습니다.
Amodei는 마감 시간 전 성명을 발표해 회사가 현재 조항을 받아들일 수 없다고 말했으며, "군사적 용도를 반대해서가 아니라, 소수의 경우에 AI가 민주주의 가치를 수호하기보다는 훼손할 가능성이 있다고 믿기 때문"이라고 했습니다. 트럼프는 즉시 연방 기관이 6개월 내에 Anthropic 제품 사용을 전면 중단하라고 발표했고, Hegseth는 이를 '공급망 안보 위험'으로 지정했는데, 이 라벨은 일반적으로 외국 적대국 기업에 사용됩니다. 계약은 이로써 종료되었습니다.
빈 자리는 곧 채워졌습니다. 바로 그날 늦게, OpenAI는 국방부와 계약을 체결했다고 발표했습니다. 알트먼은 목요일 내부 편지에서 입장은 여전히 명확했습니다. 그는 이 문제가 이미 '전 산업의 문제'가 되었다고 쓰며, OpenAI와 Anthropic이 동일한 '레드라인'을 가지고 있다고 말했습니다: 대규모 감시 반대, 자율 무기 반대. 금요일, 협의가 타결되어 군 기밀 네트워크에 모델을 배치하기로 했으며, 클라우드에서만 실행되도록 제한하고, 엔지니어를 파견 감독하며, 계약서에 동일한 두 가지 제한 사항이 명시되었다고 밝혔습니다.
알트먼은 이후 X에서 질문을 받아 몇 시간 동안 답변했습니다. 누군가 그에게 물었습니다: 왜 국방부는 OpenAI는 받아들이고 Anthropic은 차단했나요? 그의 답변은 다음과 같았습니다: "Anthropic은 적용 가능한 법률을 인용하기보다는 계약서의 구체적 금지 조항에 더 집중하는 것 같습니다. 반면 우리는 법률 인용에 만족합니다."
이 말은 방법론적 차이를 말하는 것이지만, 이 사건의 진정한 논란의 핵심을 열었습니다.
Anthropic이 협상이 결렬된 핵심은 국방부가 고수한 구절인 'all lawful purposes', 즉 모든 합법적 목적에 AI 시스템을 사용할 수 있다는 것이었습니다. Anthropic이 거부한 이유는 이 구절이 국가 안보 맥락에서 고정된 경계가 아니기 때문입니다. 현행 법률은 많은 측면에서 AI의 능력을 따라잡지 못했으며, '합법적' 범위는 정부 자체의 해석에 따라 결정될 것입니다. OpenAI는 이 구절에 서명하면서도 계약서에서 동일한 보호 조치를 논의했다고 주장했습니다.
법률 전문가들은 이후 OpenAI가 공개한 계약 조항을 분석해 두 가지 구체적인 표현 문제를 지적했습니다.

감시 조항은 시스템이 미국 시민의 개인 정보에 대한 'unconstrained'(제약 없는) 감시에 사용되어서는 안 된다고 명시합니다. 민주주의와 기술 센터의 정책 부사장 Samir Jain은 이 표현은 '제약 있는' 감시 버전이 허용된다는 것을 의미한다고 지적했습니다. 그리고 현행 법률 체계 하에서 정부는 데이터 브로커로부터 합법적으로 시민의 위치 기록, 검색 기록 및 금융 데이터를 구매해 AI가 이 데이터를 분석하도록 하는 것이 기술적으로 '불법 감시'를 구성하지 않을 수 있습니다. Amodei는 이후 CBS와의 인터뷰에서 정확히 이 예시를 들었습니다.
무기 조항은 시스템이 '법률, 규정 또는 부서 정책이 인간 통제를 요구하는 경우' 자율 무기에 사용되어서는 안 된다고 명시합니다. 이 수식어는 제한이 다른 규정이 이미 인간 통제를 요구하는 전제 하에서만 효력을 발휘하며, 구속력이 완전히 기존 정책에 의존한다는 것을 의미합니다. 그리고 국방부는 언제든지 자체 내부 정책을 수정할 권한이 있습니다. 법률 학자 Charles Bullock는 X에 글을 올려, 계약서의 무기 조항은 DoD 지침 3000.09에 의존한다고 썼는데, 이 지침은 지휘관이 '적절한 수준의 인간 판단'을 유지할 것을 요구하며, 이 '적절한 수준'은 유연하게 해석될 수 있는 기준이라고 했습니다.
OpenAI는 이러한 의혹에 대해 이렇게 답변했습니다: 모델은 클라우드에서만 실행되므로, 이는 구조적으로 무기 시스템에 직접 통합되는 가능성을 배제합니다. 계약서에는 구체적인 법적 근거도 명시되어 있으며, 이는 문자적 금지 조항보다 더 강력한 구속력을 가집니다. 왜냐하면 법률은 이미 검증된 틀이기 때문입니다. 알트먼 자신도 질문 답변에서 인정했습니다: "만약 미래에 이 싸움을 벌여야 한다면, 우리는 싸울 것입니다. 하지만 이것은 분명히 우리에게 몇 가지 위험을 안겨줍니다."
이것은 한 회사는 타협하고 다른 회사는 원칙을 고수하는 문제가 아닙니다. 이것은 두 가지 근본적으로 다른 안전 철학입니다. OpenAI의 기준선은: 불법적인 일은 하지 않는다. Anthropic의 기준선은: 법률이 아직 금지하지 않았지만, 내가 해서는 안 된다고 생각하는 일도 하지 않는다.
이러한 분열은 OpenAI 내부에도 균열을 남겼습니다. 지난주, 다수의 OpenAI 직원이 공개 서한에 서명해 Anthropic의 입장을 지지하고, 이를 공급망 위험으로 지정하는 것에 반대했습니다. 정렬 연구원 Leo Gao는 회사 계약이 충분한 보호를 제공하는지 공개적으로 의문을 제기했습니다. OpenAI 샌프란시스코 사무실 외부 보도에는 분필로 쓴 비판적 낙서가 나타났습니다. Anthropic 사무실 외부에는 지지의 메시지가 있었습니다. 알트먼의 몇 시간 동안 이어진 X 질의응답은 상당 부분 본래 Anthropic 편에 섰던 자신 회사 내부 사람들을 향한 것이었습니다.
동일한 서사의 두 가지 결과
Anthropic은 수년 동안 '문명 수준 위험 방지'를 자신의 안전 임무를 규정하는 데 사용해 왔으며, 첨단 AI의 잠재적 위협을 핵무기와 동등하게 여기고, 자신을 이 방어선의 수문장으로 포지셔닝했습니다. 이 서사는 그 브랜드의 핵심이자, 자본 시장에서 신뢰를 얻는 방식이었습니다.
기술 평론가 Packy McCormick는 이번 사건이 진행되는 동안 Ben Thompson의 한 개념인 'Hype Tax'를 인용했습니다. 의미는, 만약 극단적 서사를 사용해 자신의 영향력을 구축한다면, 그 서사가 진정한 권력과 마주쳤을 때 그 대가를 치러야 한다는 것입니다. 당신이 AI 기술을 핵무기에 비유하면, 정부는 핵무기를 대하는 방식으로 당신을 대할 것입니다.

Anthropic은 이 서사에 대한 대가를 치렀습니다: 계약 하나를 잃었고, 안보 위험으로 지정되었으며, 대통령의 지명을 받았고, 모든 제품이 6개월 내에 연방 시스템에서 제거되도록 요구받았습니다.
하지만 같은 주말, 동일한 서사가 또 다른 차원에서 완전히 반대되는 효과를 냈습니다.
일반 사용자들은 계약 조항, 법률 해석, 안전 철학 논쟁을 보지


