Hacker News 의견
  • "OpenAI가 특별 개발자 접근(API)을 통해 Claude를 내부 툴에 연결했다"라는 표현이 실제로 OpenAI가 내부적으로 사용하는 Claude API였다면 모르겠지만, Wired의 표현 방식이 너무 과장된 느낌임. 마치 "OpenAI가 Claude의 AI 메인프레임을 해킹했다가 Sonnet가 방화벽을 닫았다"는 식의 분위기가 남. 왜 단순한 API 접근을 "특별 개발자 접근"이라고 부르는지 진지하게 궁금해짐. 사실, 보안 측정 기준이 어디까지가 허용인지, 어디서부터가 도둑질인지에 대한 의견 차이가 있을 수는 있다고 생각함. 최적의 취약점 탐지법이 궁금해지는 대목임. 참고로 Anthropic이 나를 비롯해 꽤 많은 사람을 API에서 차단한 것 같음. 그냥 개인적으로 받은 편지를 읽어볼 수 있나 시도했을 뿐인데 문의해도 답이 없었음. 어차피 OpenRouter를 이용하면 제약이 별로 의미 없음
    • 해당 표현이 과장되게 들리는 건 맞는 듯함. 하지만 작성자가 혼동했을 수도 있음. API 업계에서는 일부 고객만 접근 가능한 "특별 API"가 실제로 존재함. 만약 누군가 그걸 "특별 개발자 접근"이라고 부른다면 틀린 표현은 아니라고 생각함
    • "왜 API 사용을 특별 개발자 접근이라고 부르냐"라는 주장에, 원래 API란 일반 사용자가 쓰는 게 아니고, 개발자가 작성한 프로그램이 그걸 써서 Claude에 접근하는 용도임. SDK를 "개발자 전용 툴킷"이라고 부르는 것과 비슷한 이치라고 생각함
    • Anthropic이 내 계정을 약관 위반이라며 아무 답변 없이 그냥 영구차단했음. 난 단지 Claude에게 음악이랑 SF책 추천 3~4번 물어본게 전부인데 이렇게 됐음. 정말 규칙 위반한 적도 없고 평범하게 UI로 계정 만들어 조금 쓴 것이 전부였음. 지금은 그냥 아주 가끔 테스트삼아 open router로 쓰는 게 다임
  • Anthropic의 상업 이용약관에 따르면 "경쟁 제품/서비스 구축, 경쟁 AI 모델 훈련" 용도로 이용을 금지하고 있음. 나는 사용 라이선스에 제약 없는 도구를 더 선호하므로 계속 그런 쪽만 쓸 생각임
    • 이런 반경쟁 조항이 Google, Microsoft, Meta 등 주요 AI 기업에서 업계 표준처럼 되고 있음. 모델 개발에 있어서 점점 폐쇄 생태계(월드가든)로 수렴 중임
    • 트위터 파이어호스에도 타사 트위터 클라이언트 재현 금지 조항 있었음
    • 혹시 나도 포함일지 궁금함. 난 Claude를 활용해 SNN 기반 언어 모델 실험 중인데, 사실 잘 안 돌아가지만 이론상으론 경쟁 모델 실험이긴 함. 그냥 재미삼아 배우는 중이고 결과물은 아직 없음
    • 예전에 OpenAI도 DeepSeek에 불만 제기한 적 있으니 어느 정도 상호 공정성이라고 볼 수도 있음
    • 예전에도 Microsoft 개발도구로 워드프로세서나 스프레드시트 만드는 게 라이선스 위반이었고, Oracle은 타DB와의 벤치마크 결과 공개도 금지했었음. 벤더와 경쟁하거나 경쟁사에 도움을 주면, 해당 벤더가 친절하게 받아주길 기대하지 말고, 심지어 고객 유지조차 기대하지 않는 게 좋음
  • 기사 내용을 보면 실질적으로 새로운 이야기는 없고, 그냥 상반된 시각만 제시하고 있음.
    1) OpenAI의 기술진이 Claude Code를 API(최고 요금제는 아님)로 사용했음.
    2) Anthropic 대변인은 OpenAI가 벤치마킹 및 평가 목적으로 API 접근을 계속 받을 수 있다고 했음.
    3) OpenAI는 API를 벤치마킹에 쓴다고 밝혔음.
    내 생각엔 모델 벤치마크는 괜찮지만, 툴 벤치마크는 선을 넘는다는 분위기임. 즉, OpenAI가 자사 제품이 Claude code보다 특정 기준에서 더 잘 동작하는지 보려고 했다는 것 같고, 그걸 Anthropic에서 금지한 상황임. 적발 방식이 훨씬 인상적임. Livebench에서 sonnet 4로 문제를 푸는 거랑, 자체 결과를 공개하지 않은 벤치마크 도구로 우회하는 건 조금 다름. 이게 반드시 옳다는 얘긴 아니지만 현 상황이 그렇다고 생각함
    • 이런 일은 차라리 Jepsen 같은 서드파티 벤치마크 전문가가 했으면 좋겠음. 경쟁사가 직접 서로를 평가하려다 보니 불편해지는 건 이해감
  • Anthropic이 "OpenAI가 벤치마크 및 안전성 평가 목적으로 API 접근하는 건 계속 보장한다"고 발표한 건 매우 훌륭한 PR 전략임. '우리가 워낙 좋아서 OpenAI도 우리 제품을 쓴다'는 인식을 주려는 의도가 읽힘. OpenAI가 공식 계정 아니면 마음만 먹으면 다시 가입할 수도 있다는 걸 Anthropic이 잘 알고 있음
    • 수십억 달러 기업이 차단을 피해서 몰래 사용하는 건 어렵고, 적발될 경우 법정 분쟁에 휘말릴 가능성이 높음
  • OpenAI 서비스약관에도 "고객은 OpenAI와 경쟁하는 인공지능 모델 개발에 산출물을 사용할 수 없음"이라고 명시되어 있음. 사필귀정임
    • 여러 AI기업들이 실제로는 저작권법, 상표법, 명예훼손법, 계약법, 그리고 각종 윤리 이슈까지 법을 무시하는 사례가 많았고, 실제로 지금까지도 다 피해가고 있음
  • https://archive.is/m4uL7
  • "OpenAI의 기술 스태프가 GPT-5 출시 전 우리 코딩툴을 먼저 사용했다"라는 식의 보도는 오히려 값싼 PR 공격처럼 느껴짐. API를 훈련에 쓴 것과 개발자들이 코딩에 쓴 것의 의미는 엄연히 다름
  • 예전에 OpenAI 관계자들이 실은 다양한 연구소들이 서로 협업하지만, 공식적으로는 밝히지 않는다고 말한 것 같은 기억이 있음
  • 내 기대엔 모든 AI 기업이 최소한 평가 목적으로 타사 모델 API를 "특별 개발자 접근" 형태로 도구에 통합해 쓰는 게 일반적임. 오히려 Anthropic 측이 이런 식으로 어필하는 게 마이너스 이미지임