@sama가 몇 시간 만에 Anthropic 대신 OpenAI가 같은 조건으로 계약을 체결한다고 발표했을 때, DoW나 OAI 중 누군가가 사실을 왜곡하고 있음이 분명하다고 느꼈음
DoW가 Anthropic의 조건을 거부했으니, OAI의 조건은 사실상 집행 불가능한 수준이었을 것임
실제로 읽어보면 “DoW는 스스로 정한 규칙을 어기지 않는다”는 식의 조건처럼 보였음
OpenAI가 “모든 합법적 사용”이라는 문구 뒤에 숨어서 자신들을 보호하려는 것 같음
Sam Altman은 DoD용 모델에 규칙을 내장해 오용을 막겠다고 했지만, 그건 정렬 문제(alignment) 를 단기간에 해결하겠다는 말과 다름없음. 믿기 어려움
Sam Altman뿐 아니라 Paul Graham에 대한 존경심도 완전히 사라짐
예전엔 그의 에세이를 좋아했지만, 점점 자기반성이 부족하고 스타트업만이 인생의 전부라는 식으로 느껴졌음
이번에도 Altman을 두둔하는 모습이 너무 실망스러움. 그의 트윗을 보면 현실을 외면하고 있음
아마 자신이 Altman을 세상에 알린 책임감 때문에 그를 비판하지 못하는 듯함
Dario의 운명은 이미 정해진 듯함. 지식이나 부가 아닌 권력이 세상을 지배함
기술자 대부분은 정치철학을 배우지 않았고, 고대의 ‘Gyges의 반지’ 이야기가 여전히 유효함
나도 처음부터 DoW나 OAI가 둘 다 뭔가 숨기고 있다고 생각했음. 너무 명확했음. 발표 전에 ChatGPT에게 물어봤으면 좋았을 것 같음
이건 단순히 윤리 문제로만 볼 수 없음. 막대한 자본이 걸린 문제임
최첨단 모델 훈련에는 천문학적 비용이 들고, 그걸 감당할 수 있는 곳은 DoD 같은 기관뿐임
Anthropic이 안전성 문제로 국방부 계약을 거절한 건 큰 도박임. 그 대신 ‘Constitutional AI’ 접근법이 시장에서 보상받길 기대하는 것임
OpenAI는 국방부 자금을 원하면서도 소비자 친화적 이미지를 유지하려 함. 하지만 두 마리 토끼를 잡을 순 없음
계약 규모는 2억 달러 정도로, 인프라에 수십억을 쓰는 기업들에겐 큰돈은 아님
이번 사태로 오히려 Anthropic이 더 많은 매출을 올렸을 수도 있음
진짜 위험은 정부가 Anthropic을 공급망 리스크로 지정할 경우임
“윤리적 전투”라기보다, 언제나 그렇듯 이익이 걸린 싸움임
Anthropic이 Palantir과 협력하면서 DoD 감시에 반대하는 건 모순처럼 보임
하지만 Palantir은 Anthropic의 이용 제한 조건을 수용했고, DoD는 거부했음
DoD가 계약을 끊고 OpenAI와 새로 맺은 걸 보면, 두 회사의 조건엔 실질적 차이가 있었음이 분명함
Palantir은 Flock처럼 직접 감시를 하는 회사가 아니라, 데이터 통합 플랫폼을 제공함
정부 계약 하에 여러 데이터(수사·보안 포함)를 통합하지만, 직접 수집하진 않음 Wired 기사 참고
혹시 Palantir 계약이 국내 감시를 제외했을 수도 있음. Anthropic이 “국내 감시 금지”를 조건으로 걸었을 가능성 있음
실제로 Anthropic은 Palantir과의 협력에서도 “무기 설계, 검열, 국내 감시, 허위정보, 악성 사이버 작전” 등에는 사용하지 않겠다는 제한을 명시했음 TechCrunch 기사 참고
Palantir 계약에도 비슷한 조건이 있었을 가능성이 높음. 그걸 없다고 단정하는 건 이상함
Hacker News 의견들
@sama가 몇 시간 만에 Anthropic 대신 OpenAI가 같은 조건으로 계약을 체결한다고 발표했을 때, DoW나 OAI 중 누군가가 사실을 왜곡하고 있음이 분명하다고 느꼈음
DoW가 Anthropic의 조건을 거부했으니, OAI의 조건은 사실상 집행 불가능한 수준이었을 것임
실제로 읽어보면 “DoW는 스스로 정한 규칙을 어기지 않는다”는 식의 조건처럼 보였음
Sam Altman은 DoD용 모델에 규칙을 내장해 오용을 막겠다고 했지만, 그건 정렬 문제(alignment) 를 단기간에 해결하겠다는 말과 다름없음. 믿기 어려움
예전엔 그의 에세이를 좋아했지만, 점점 자기반성이 부족하고 스타트업만이 인생의 전부라는 식으로 느껴졌음
이번에도 Altman을 두둔하는 모습이 너무 실망스러움. 그의 트윗을 보면 현실을 외면하고 있음
아마 자신이 Altman을 세상에 알린 책임감 때문에 그를 비판하지 못하는 듯함
기술자 대부분은 정치철학을 배우지 않았고, 고대의 ‘Gyges의 반지’ 이야기가 여전히 유효함
이건 단순히 윤리 문제로만 볼 수 없음. 막대한 자본이 걸린 문제임
최첨단 모델 훈련에는 천문학적 비용이 들고, 그걸 감당할 수 있는 곳은 DoD 같은 기관뿐임
Anthropic이 안전성 문제로 국방부 계약을 거절한 건 큰 도박임. 그 대신 ‘Constitutional AI’ 접근법이 시장에서 보상받길 기대하는 것임
OpenAI는 국방부 자금을 원하면서도 소비자 친화적 이미지를 유지하려 함. 하지만 두 마리 토끼를 잡을 순 없음
이번 사태로 오히려 Anthropic이 더 많은 매출을 올렸을 수도 있음
진짜 위험은 정부가 Anthropic을 공급망 리스크로 지정할 경우임
Anthropic이 Palantir과 협력하면서 DoD 감시에 반대하는 건 모순처럼 보임
DoD가 계약을 끊고 OpenAI와 새로 맺은 걸 보면, 두 회사의 조건엔 실질적 차이가 있었음이 분명함
정부 계약 하에 여러 데이터(수사·보안 포함)를 통합하지만, 직접 수집하진 않음
Wired 기사 참고
TechCrunch 기사 참고
Dario의 전체 메모가 여기에 공개됨
단순 경쟁이 아니라 이념적 충돌로 보임
게다가 OpenAI 직원들을 “속기 쉬운 트위터 바보들”이라 부른 건 인재 확보 측면에서 좋지 않은 선택임
예시 트윗 참고
@pg가 @sama를 “식인종 섬에 떨어뜨려도 5년 뒤엔 왕이 되어 있을 사람”이라 표현했는데, 지금 보면 권력욕의 상징적인 인용구처럼 들림
Dario는 이 시대에 드문 진정성 있는 인물로 보임. 그가 흔들리지 않길 바람
결국 이들은 모두 영리 기업이며, 한쪽이 틀렸다고 다른 쪽이 자동으로 옳은 건 아님
공식 발표 링크 참고
Altman이 SCR 조항에서 Anthropic을 옹호한 건 인정하지만, 그건 너무 당연한 수준임
그 인용구는 처음부터 부정적인 의미로 들렸음. 이 커뮤니티도 위계에 대한 자연스러운 회의심을 가질 필요가 있음
사실 두 연구소 모두 ‘안전 연극(safety theater)’ 을 하고 있음
정렬 문제를 해결하지 못한 채, 시장 압박 때문에 위험한 능력 경쟁을 벌이고 있음
이번 사태를 계기로 OpenAI 구독을 취소하고 계정을 삭제하자는 행동 촉구임
아무것도 하지 않는 건 묵인과 다름없음
Sam Altman이 거짓말을 한다고? 이제는 놀랍지도 않음
사람들을 점점 더 자신에게 의존하게 만들어, 나중엔 아무도 그를 몰아낼 수 없게 됨
OpenAI는 정부의 지원금에 의존해 생존하려는 상황임
Sam과 경영진은 이미 위기를 감지했고, 정부 자금이 필요함
선거를 앞둔 시점에서 시장을 유지하려는 정치적 계산도 깔려 있음
Nvidia, Micron, Oracle, Microsoft 모두 이 흐름에 얽혀 있음
Anthropic, OpenAI, 미국 정부 간의 최근 사건을 정리한 타임라인 웹사이트를 만들었음
HN 게시글 링크