프런티어의 종말
(tanyaverma.sh)- Anthropic의 Mythos 발표를 계기로, 인터넷이 더 이상 누구나 자유롭게 탐험할 수 있는 무허가적 창조 공간이 아니게 되었음
- 노동과 지능이 자본으로 대체되며, 소수 기업이 AI 시대의 영구적 우위를 점하는 구조가 고착화되고 있음
- 비공개 모델 정책과 API 접근 제한은 안전을 명분으로 하지만, 혁신과 안전 연구를 동시에 위축시키는 결과를 초래함
- 지능 접근의 기본 원칙은 ‘접근 우선’ 이어야 하며, 기업은 투명한 절차와 감사 가능성을 확보해야 함
- 인류의 데이터로 학습된 모델을 소수가 독점하는 식민지적 가치 추출 구조를 경계하며, 인터넷의 개방성과 창의성을 지켜야 함
프런티어의 종말
-
Anthropic의 Mythos 발표를 계기로, 인터넷이 더 이상 누구나 자유롭게 탐험하고 창조할 수 있는 무허가적 공간이 아니게 되었음
- 과거에는 자본이나 인맥 없이도 누구나 인터넷과 동일한 기술 인프라에 접근할 수 있었으나, 이제는 공개 모델과 비공개 모델 간 격차가 커지고 있음
- 이는 미국 개척시대의 ‘프런티어 소멸’과 유사한 기회의 종말로 비유됨
-
노동과 지능이 자본으로 대체되는 구조가 심화되며, 자본을 가진 집단이 AI 시대의 영구적 우위를 점하게 됨
- Rudolf Laine은 이를 “자본이 초인적 노동으로 전환되는 시대”라 표현했고, George Hotz는 ‘신봉건주의(neofeudalism)’ 로 명명
- 극소수 기업이 지능 자체를 독점하면, 나머지는 영구적 하층 계급으로 전락할 수 있다는 경고
-
Anthropic의 Mythos 비공개 정책은 단순한 안전 조치가 아니라, 민간 기업이 국가급 능력을 독점하는 구조로 비판됨
- Anthropic은 AWS, Apple, Google 등과 함께 Project Glasswing을 발표했으나, 일반 공개 없이 기업 파트너에게만 접근권을 부여
- 이로 인해 보안 사고나 정보 유출 시 위험이 커지고, 국가 수준의 능력이 사기업에 집중되는 비민주적 상황이 발생
-
API 접근 제한은 남용 방지에는 도움이 되지만, 동시에 혁신과 안전 연구를 억제함
- 공개 접근은 모델의 잠재 능력을 드러내고, 실제 환경에서의 ‘빠른 실패와 수정’ 을 가능하게 함
- 과거 fuzzer 도구(American Fuzzy Lop) 도입이 보안 강화를 이끌었던 사례처럼, 프런티어 모델 접근성 확대가 보안 역량 향상으로 이어질 수 있음
- 그러나 현재 AI 안전 연구자들은 대형 모델 접근 불가로 인해, 대부분 중국 오픈소스 모델을 이용하고 있음
-
지능 접근의 기본 원칙은 ‘접근 우선’ 이어야 하며, 안전장치는 그 위에 덧붙여야 함
- 정부 수준의 능력을 가진 기업은 공정한 절차와 투명한 기준을 마련해야 하며, 접근 제한 시 명확한 사유 공개가 필요
- Frontier 모델 접근권 박탈은 ‘언뱅크드(unbanked)’ 상태와 유사한 사회적 배제로 작용
- FOIA(정보공개법) 수준의 감사 의무가 요구됨
-
인류 전체의 데이터로 학습된 모델을 소수 기업이 독점하는 것은 식민지적 가치 추출 구조와 유사함
- 다수의 데이터 제공자는 동의 없이 가치가 추출되고, 이익은 내부 네트워크에 집중
- 이후 UBI나 자선 기부로 도덕적 정당성을 확보하려는 패턴이 반복됨
- 의도가 악의적이지 않더라도, 권력 집중의 구조적 문제는 동일함
-
AI의 개인화 가능성에 대한 희망도 제시됨
- 현재의 폐쇄적 AI 시대가 메인프레임 시대에 불과할 수 있으며, 개인용 컴퓨팅(Apple II) 시대로의 전환 가능성 존재
- 오픈소스 모델은 이미 3~12개월 격차로 프런티어를 따라잡고 있으며, 칩과 에너지 공급 확장이 이루어진다면 ‘측정 불가능할 정도로 저렴한 지능’ 시대가 도래할 수 있음
-
‘Wired’의 자유를 잃지 말아야 함
- 도시가 안전을 이유로 오래된 나무를 베어내듯, 과도한 안전 논리로 인터넷의 개방성과 창의성을 잃을 위험
- 인터넷은 여전히 개인 주도적 창조와 탐험의 마지막 공간이며, 이를 지키는 것이 중요함
마케팅적 과장같음. 매번 신모델 나올때마다 역대급이다. 인간시대의 종말이다. 코딩을 끝났으니 배관공해야한다 등등의 신박한 과장문구는 넘쳐났지만 막상 실사용에 문제가 있었고 가장 중요한건 대다수의 사람은 오히려 고급 검색기 사용수준에 머물러 있어서 강력한모델의 100%출력을 내지 못함. LLM시대의 병목은 코드도 아니고 인프라도 아니고 역설적으로 프롬프트 날리는 일반대중의 정보시스템에 대한 낮은 이해도임.
근데 새로운 개념은 아닐텐데?
금융권도 모든 국가의 법을 넘어서는 금융허브가 한군데 존재해서 거기로 모든 금융권 제도가 통제됨
IT 도 이제 그렇게 IT 허브가 만들어져서 IT 기업들끼리 통제해서 모든 국가에 대항한다고 보면 되지
그리고 클로드 성능 보면 저게 이해됨
금융허브가 유대인 네트워크같은 특정 집단을 말하거나 홍콩, 싱가포르 등 단순 중개허브를 말씀하시는걸까요?
스위프트나 결제청산등 구조는 사실상 강대국들 손 안에 있다고 봐야됩니다.
대항한다기보다는 오히려 힘있는 쪽의 도구로 사용되는 편이여서요.
저는 그런 느낌으로 보면 이 글도 원래 취지에 맞게 힘있는 자의 도구가 되는게 더 당연스럽게 느껴지네요
Hacker News 의견들
-
발표된 지 일주일밖에 안 됐는데 벌써 이런 논의가 나오는 건 너무 이르다는 생각임
“이 모델은 대중에게 너무 강력하다”는 말은 마케팅 문구처럼 들림
몇 달 지나면 결국 또 다른 모델을 팔 것이고, 그다음엔 “새 모델은 너무 강력해서 공개할 수 없다”고 할 것 같음- 꼭 그렇진 않다고 봄. “너무 강력하다”는 말은 단순히 비용 대비 효용이 낮다는 뜻일 수도 있음
Mythos는 너무 느려서 인터랙티브 코딩에는 부적합하다고 함. 하루 밤을 넘겨야 결과가 나올 정도라면 대부분의 사용자는 굳이 쓸 이유가 없음
AI 연구소들은 여전히 적자를 내고 있고, Mythos를 공개하려면 훨씬 비싼 가격을 매겨야 함. 대부분의 고객이 그 차이를 체감하지 못한다면 경제성이 없음
아마 Anthropic은 OpenAI보다 더 큰 훈련 데이터센터 접근권을 활용하고 싶었을 수도 있음. 하지만 지금 필요한 건 더 똑똑한 모델이 아니라, 작고 저렴하면서도 충분히 좋은 모델임 - 예전에 OpenAI가 GPT-2를 “너무 위험해서 공개할 수 없다”고 했던 일이 떠오름
Mythos도 그때와 다를 것 같진 않음 - 이런 “너무 위험하다”는 담론은 사실상 활동가들의 마케팅 도구가 되어버렸음
AI 개발을 늦추려던 이들이 오히려 그 담론을 퍼뜨리며 관심을 끌었고, 결과적으로 AI 확산에 기여했음
2011년경 이런 현상을 다룬 흥미로운 연구도 있었는데, 스웨덴 브랜드 Cheap Monday의 사례가 기억남 - Anthropic은 인류에 대한 보호자 의식을 갖고 있다고 생각함
접근을 제한하는 것이 보안의 핵심이라고 믿는 듯함
하지만 이런 태도가 소수에게만 혜택을 주고 다수를 소외시키는 결과를 낳는다면, 그 정당성은 대중이 판단해야 함 - Mythos가 위험하다는 주장은, 이 모델이 소프트웨어 취약점을 자동으로 찾는 능력 때문임
이런 기능이 공개 API로 풀리면 악용될 가능성이 큼
이미 AI를 이용한 대규모 사기나 딥페이크 사례가 많음
오픈소스 코드에 “가능한 모든 취약점을 찾아라”라고 명령했을 때 기존 모델보다 훨씬 많은 결과를 낸다면, 제한적 공개는 합리적인 선택임
- 꼭 그렇진 않다고 봄. “너무 강력하다”는 말은 단순히 비용 대비 효용이 낮다는 뜻일 수도 있음
-
Anthropic이 Crowdstrike, Cisco, Microsoft 같은 보안 기업들에만 접근권을 준 것은 이해됨
Glasswing의 목적이 인프라 보안을 강화하는 것이라면, 보안 사고가 있었다는 이유로 그들에게 접근을 막는 건 이상함
Mythos가 언젠가 공개될 수도 있지만, 이번 제한적 공개는 안전한 공개를 위한 준비 과정으로 보임 -
NVIDIA에서는 이런 우려를 해결하기 위해 Nemotron을 개발 중임
Nemotron은 오픈 가중치뿐 아니라 오픈 데이터와 오픈 레시피까지 공개하는 모델임
여러 기관이 협력해 개방형 AI를 만드는 것이 목표임
Nemotron 3 Super가 현재 가장 성공적이며, 곧 Ultra와 Nemotron 4도 나올 예정임
AI가 성장할수록 NVIDIA의 기회도 커지기 때문에 가능한 전략임
관련 링크 -
“16살짜리도 자본 없이 무언가를 만들 수 있었던 시대”라는 말이 지금 더 진실에 가까움
- 하지만 이런 모델들이 공개되지 않으면 그 자유는 사라질 것임
- 지금은 누구나 만들 수 있지만, 너무 많은 사람이 만들다 보니 배포력과 인지도가 새로운 자본이 됨
- 창의성과 작업물이 스스로 말할 수 있지만, 결국 수익화에는 유통이 필수임
- 결국 이런 약속은 기술이 나올 때마다 반복되고, 대부분은 더 나쁜 직업 환경으로 끝남
-
Anthropic이 Mythos를 공개하지 못하는 이유는 컴퓨팅 자원 부족 때문임
OpenAI는 올해와 내년에 훨씬 더 많은 컴퓨팅 파워를 확보할 예정임- 이게 진짜 이유라고 봄. 자원 부족을 선의로 포장한 마케팅으로 보임
- 만약 Mythos가 정말 혁신적이라면, Anthropic과 OpenAI의 합병 가능성도 흥미로움
- 자원이 부족하다면 컴퓨팅 경매를 열 수도 있었을 것임. 대기업들은 높은 값을 지불할 의향이 있을 텐데, 왜 그 기회를 포기했는지 의문임
-
Mythos가 다른 모델과 크게 다르지 않다는 점에서, “너무 이르다”는 의견에 동의함
다만 AI 비판자들이 주장하는 “대기업이 사회를 약탈했다”는 프레임은 지적재산권 개념의 오해에서 비롯된 것 같음- 결론에는 동의하지 않지만, “사회가 약탈당했다”는 표현은 많은 사람들이 느끼는 피해감정을 잘 표현한다고 생각함
-
Anthropic이 Mythos를 숨기기보다, 기업 보안 점검 서비스로 활용하면 좋겠음
모델로 인프라를 공격해 취약점을 찾아주는 서비스라면 수익성도 높을 것임- 하지만 현실적으로는 PR 리스크가 큼
예를 들어 인기 npm 패키지 관리자가 돈이 급해 Mythos로 자신의 라이브러리를 점검해달라고 했다가, 한 달 뒤 해킹당했다고 하면 큰 문제임
- 하지만 현실적으로는 PR 리스크가 큼
-
“전력망” 비유가 인상 깊었음
태양광처럼 개인이 전력을 생산할 수도 있지만 대부분은 공공요금을 내고 전기를 씀
마찬가지로 지능 접근권도 기본적으로는 모두에게 열려 있어야 함
위험한 사용은 안전장치로 제한하되, 기본값은 접근 허용이어야 함 -
인류는 항상 ‘괴물 같은 기술’ 을 필수품으로 만들려는 유혹에 빠짐
하지만 그런 괴물은 오래 가둬둘 수 없음. 결국 통제 불가능해짐 -
미국 개척시대의 기회는 예외적인 현상이었음
빠른 확장기에는 개인이 성장할 수 있었지만, 정체되면 기업이 개인을 압도함
기술 발전이 가속될수록 개인이 세상을 파괴할 수 있는 수준에 이르고 있음
핵무기처럼, AI도 이제는 개인 접근 제한이 필요한 시점임- 지금은 16살이 유니콘을 만드는 게 복권 당첨만큼 희박함
성공하려면 유명인과 연결된 서비스여야 함 - 개척 신화 뒤에는 비극과 희생이 있었음. 원주민의 죽음 위에 세워진 신화였음을 잊지 말아야 함
- 지금은 16살이 유니콘을 만드는 게 복권 당첨만큼 희박함
하긴, 극단적으로 무한한 능력을 가진 모델이 만들어진다면, 그 모델을 공개할 이유가 없을것 같기도하네요. 그 모델 사용료보다 높은 부가가치를 스스로 만들어낼 수 있을테니...