Anthropic과 OpenAI, AI 경쟁 가속화 속 안전 규칙 표현 조정
Odaily 보도에 따르면 Anthropic은 책임 있는 확장 정책에서 핵심 안전 약속 한 가지를 삭제했으며, 위험 완화 조치가 완전히 마련되지 않은 경우 훈련을 중단하겠다는 약속을 더 이상 하지 않습니다. Anthropic의 최고 과학 책임자 Jared Kaplan은 TIME과의 인터뷰에서 AI가 빠르게 발전하는 상황에서 경쟁사들이 계속 추진한다면 일방적인 훈련 중단 약속은 실질적인 의미가 없다고 밝혔습니다.
OpenAI도 그 사명 선언문을 수정하여 2024년 IRS 제출 문서에서 'safely'라는 단어를 삭제했습니다. 이전에는 '인류에 안전하게 이익을 주는(safely benefits humanity)' 범용 AI를 구축한다고 표현했으나, 현재는 '범용 AI가 전 인류에 혜택을 주도록 보장한다'로 변경되었습니다.
RAND Corporation의 고급 정책 연구원 Edward Geist는 초기 AI 안전 옹호자들이 상상했던 고급 AI와 현재의 대규모 언어 모델(LLM) 사이에는 근본적인 차이가 있으며, 용어 변화는 또한 기업들이 투자자와 정책 입안자에게 안전 우려 때문에 경제적 경쟁에서 물러서지 않을 것이라는 신호를 전달하기를 원한다는 점을 반영한다고 말했습니다.
Anthropic은 최근 300억 달러 규모의 자금 조달을 완료하여 약 3800억 달러의 가치 평가를 받았습니다. OpenAI는 Amazon, Microsoft 및 Nvidia가 지원하는 최대 1000억 달러 규모의 자금 조달 라운드를 진행 중입니다. 한편, Anthropic은 국방부에 Claude에 대한 완전한 접근 권한을 제공하는 것을 거부하여 미국 국방장관 Pete Hegseth과 공개적으로 의견 차이를 보였으며, 그들의 국방 계약은 불확실성에 직면해 있습니다. (Decrypt)
