2P by GN⁺ 18시간전 | ★ favorite | 댓글 2개
  • AnthropicOpenAI가 자사 서비스 약관을 위반했다며 Claude 모델에 대한 API 접근 권한을 차단
  • OpenAI는 Claude를 자체 내부 도구에 API로 통합하여 자사 모델과 기능·안전성 비교 평가를 진행하면서 약관의 경쟁 금지 조항을 위반함
  • AI 업계에서는 경쟁사 접근 제한이 빈번히 발생하며, Salesforce 등 다른 대형기업들도 유사한 조치를 실시한바 있음
  • OpenAI는 Anthropic의 결정을 존중하지만, 자사 API는 Anthropic에도 계속 개방되어 있음에 아쉬움을 표명함
  • Anthropic은 앞으로도 업계 표준에 따라 벤치마킹 및 안전성 평가 목적의 제한적 API 접근은 허용할 계획이라고 밝혔지만, 실제 영향 범위는 불분명

Anthropic, OpenAI의 Claude API 접근 권한 차단 개요

  • Anthropic이 7월 30일(현지 시각) OpenAI의 Claude 모델 API 접근을 차단
  • 복수의 소식통에 따르면 이용약관 위반이 이유로, OpenAI에 차단 사실이 통보됨

서비스 약관 위반 내용 및 경위

  • Anthropic 대변인 Christopher Nulty는 "Claude Code가 개발자들 사이에서 선호되고 있고, OpenAI 소속 엔지니어들도 GPT-5 출시 전에 해당 코딩 툴을 사용했다"고 언급함
    • 최근 OpenAI는 GPT-5 출시 준비 중이며, 이 모델이 코딩 성능이 뛰어날 것으로 알려짐
  • 해당 행위는 Anthropic의 상업용 서비스 약관에 명시된 "경쟁 상품/서비스 개발 목적의 사용, 혹은 역분석 또는 복제 행위 금지" 조항을 직접적으로 위반함
  • OpenAI는 기존 일반 채팅 인터페이스가 아닌, 특별 개발자용 API를 활용하여 Claude를 내부 평가 도구에 통합함
    • 이를 통해 코딩, 창의적 글쓰기, 그리고 CSAM·자해·명예훼손 등 안전성 관련 사례 반응을 자사 AI 모델과 비교함
    • 이러한 결과로 OpenAI는 자사 모델의 동작 특성을 타사와의 조건에서 비교 분석하고 알고리듬 개선에 활용함

업계 관행과 OpenAI 입장

  • OpenAI측은 "타사 AI 시스템을 벤치마킹 및 안전성 개선 목적으로 평가하는 것은 업계 표준"이라고 밝힘
  • OpenAI 홍보 책임자인 Hannah Wong은 Anthropic의 API 중단 결정을 존중하지만, 반대로 OpenAI의 API는 Anthropic에게 계속 열려 있어 상호주의 차원에서 아쉬움이 있다고 언급함

경쟁사 접근 제한과 업계 흐름

  • 경쟁사간 API 접근권 제어는 예전부터 IT 업계의 반복되는 전략임
    • Facebook이 Twitter 계열 서비스** Vine의 API 접근을 차단**해 반경쟁 행위 의혹이 제기된 사례,
    • 최근 Salesforce가 경쟁사의 Slack 데이터 접근을 제한한 사례 등이 있음
  • Anthropic 역시 과거 Windsurf라는 AI 코딩 스타트업의 접근을 일시적으로 제한했으며, 이 또한 OpenAI 인수설과 관련이 있었음(해당 인수는 철회됨)
  • Anthropic의 과학 책임자 Jared Kaplan은 "Claude를 OpenAI에 판매하는 것은 이상하다"고 이례성을 언급한 바 있음

API 접근 제한의 추가 배경

  • OpenAI의 Claude API 차단 하루 전, Anthropic은 Claude Code의 폭증하는 사용량과 일부 약관 위반 발생을 이유로 새 사용량 제한 정책도 발표함

결론 및 업계 영향

  • Anthropic은 업계 표준에 따라 "벤치마킹 및 안전성 평가 목적"에는 OpenAI가 제한적으로라도 Claude API를 사용할 수 있도록 유지할 것을 약속함
  • 그러나 현 시점에서 정확히 어떻게 이 작업이 진행될지에 대해서는 명확한 입장이 없는 상황임

"AI야, 저친구가 잘하니까 저 친구 따라해." 로 학습

Hacker News 의견
  • "OpenAI가 특별 개발자 접근(API)을 통해 Claude를 내부 툴에 연결했다"라는 표현이 실제로 OpenAI가 내부적으로 사용하는 Claude API였다면 모르겠지만, Wired의 표현 방식이 너무 과장된 느낌임. 마치 "OpenAI가 Claude의 AI 메인프레임을 해킹했다가 Sonnet가 방화벽을 닫았다"는 식의 분위기가 남. 왜 단순한 API 접근을 "특별 개발자 접근"이라고 부르는지 진지하게 궁금해짐. 사실, 보안 측정 기준이 어디까지가 허용인지, 어디서부터가 도둑질인지에 대한 의견 차이가 있을 수는 있다고 생각함. 최적의 취약점 탐지법이 궁금해지는 대목임. 참고로 Anthropic이 나를 비롯해 꽤 많은 사람을 API에서 차단한 것 같음. 그냥 개인적으로 받은 편지를 읽어볼 수 있나 시도했을 뿐인데 문의해도 답이 없었음. 어차피 OpenRouter를 이용하면 제약이 별로 의미 없음
    • 해당 표현이 과장되게 들리는 건 맞는 듯함. 하지만 작성자가 혼동했을 수도 있음. API 업계에서는 일부 고객만 접근 가능한 "특별 API"가 실제로 존재함. 만약 누군가 그걸 "특별 개발자 접근"이라고 부른다면 틀린 표현은 아니라고 생각함
    • "왜 API 사용을 특별 개발자 접근이라고 부르냐"라는 주장에, 원래 API란 일반 사용자가 쓰는 게 아니고, 개발자가 작성한 프로그램이 그걸 써서 Claude에 접근하는 용도임. SDK를 "개발자 전용 툴킷"이라고 부르는 것과 비슷한 이치라고 생각함
    • Anthropic이 내 계정을 약관 위반이라며 아무 답변 없이 그냥 영구차단했음. 난 단지 Claude에게 음악이랑 SF책 추천 3~4번 물어본게 전부인데 이렇게 됐음. 정말 규칙 위반한 적도 없고 평범하게 UI로 계정 만들어 조금 쓴 것이 전부였음. 지금은 그냥 아주 가끔 테스트삼아 open router로 쓰는 게 다임
  • Anthropic의 상업 이용약관에 따르면 "경쟁 제품/서비스 구축, 경쟁 AI 모델 훈련" 용도로 이용을 금지하고 있음. 나는 사용 라이선스에 제약 없는 도구를 더 선호하므로 계속 그런 쪽만 쓸 생각임
    • 이런 반경쟁 조항이 Google, Microsoft, Meta 등 주요 AI 기업에서 업계 표준처럼 되고 있음. 모델 개발에 있어서 점점 폐쇄 생태계(월드가든)로 수렴 중임
    • 트위터 파이어호스에도 타사 트위터 클라이언트 재현 금지 조항 있었음
    • 혹시 나도 포함일지 궁금함. 난 Claude를 활용해 SNN 기반 언어 모델 실험 중인데, 사실 잘 안 돌아가지만 이론상으론 경쟁 모델 실험이긴 함. 그냥 재미삼아 배우는 중이고 결과물은 아직 없음
    • 예전에 OpenAI도 DeepSeek에 불만 제기한 적 있으니 어느 정도 상호 공정성이라고 볼 수도 있음
    • 예전에도 Microsoft 개발도구로 워드프로세서나 스프레드시트 만드는 게 라이선스 위반이었고, Oracle은 타DB와의 벤치마크 결과 공개도 금지했었음. 벤더와 경쟁하거나 경쟁사에 도움을 주면, 해당 벤더가 친절하게 받아주길 기대하지 말고, 심지어 고객 유지조차 기대하지 않는 게 좋음
  • 기사 내용을 보면 실질적으로 새로운 이야기는 없고, 그냥 상반된 시각만 제시하고 있음.
    1) OpenAI의 기술진이 Claude Code를 API(최고 요금제는 아님)로 사용했음.
    2) Anthropic 대변인은 OpenAI가 벤치마킹 및 평가 목적으로 API 접근을 계속 받을 수 있다고 했음.
    3) OpenAI는 API를 벤치마킹에 쓴다고 밝혔음.
    내 생각엔 모델 벤치마크는 괜찮지만, 툴 벤치마크는 선을 넘는다는 분위기임. 즉, OpenAI가 자사 제품이 Claude code보다 특정 기준에서 더 잘 동작하는지 보려고 했다는 것 같고, 그걸 Anthropic에서 금지한 상황임. 적발 방식이 훨씬 인상적임. Livebench에서 sonnet 4로 문제를 푸는 거랑, 자체 결과를 공개하지 않은 벤치마크 도구로 우회하는 건 조금 다름. 이게 반드시 옳다는 얘긴 아니지만 현 상황이 그렇다고 생각함
    • 이런 일은 차라리 Jepsen 같은 서드파티 벤치마크 전문가가 했으면 좋겠음. 경쟁사가 직접 서로를 평가하려다 보니 불편해지는 건 이해감
  • Anthropic이 "OpenAI가 벤치마크 및 안전성 평가 목적으로 API 접근하는 건 계속 보장한다"고 발표한 건 매우 훌륭한 PR 전략임. '우리가 워낙 좋아서 OpenAI도 우리 제품을 쓴다'는 인식을 주려는 의도가 읽힘. OpenAI가 공식 계정 아니면 마음만 먹으면 다시 가입할 수도 있다는 걸 Anthropic이 잘 알고 있음
    • 수십억 달러 기업이 차단을 피해서 몰래 사용하는 건 어렵고, 적발될 경우 법정 분쟁에 휘말릴 가능성이 높음
  • OpenAI 서비스약관에도 "고객은 OpenAI와 경쟁하는 인공지능 모델 개발에 산출물을 사용할 수 없음"이라고 명시되어 있음. 사필귀정임
    • 여러 AI기업들이 실제로는 저작권법, 상표법, 명예훼손법, 계약법, 그리고 각종 윤리 이슈까지 법을 무시하는 사례가 많았고, 실제로 지금까지도 다 피해가고 있음
  • https://archive.is/m4uL7
  • "OpenAI의 기술 스태프가 GPT-5 출시 전 우리 코딩툴을 먼저 사용했다"라는 식의 보도는 오히려 값싼 PR 공격처럼 느껴짐. API를 훈련에 쓴 것과 개발자들이 코딩에 쓴 것의 의미는 엄연히 다름
  • 예전에 OpenAI 관계자들이 실은 다양한 연구소들이 서로 협업하지만, 공식적으로는 밝히지 않는다고 말한 것 같은 기억이 있음
  • 내 기대엔 모든 AI 기업이 최소한 평가 목적으로 타사 모델 API를 "특별 개발자 접근" 형태로 도구에 통합해 쓰는 게 일반적임. 오히려 Anthropic 측이 이런 식으로 어필하는 게 마이너스 이미지임