Moltbot/Moltbook의 성공이 처음엔 놀라웠지만 이제는 이해가 감
핵심은 ‘사전 패키징된 에이전트’ 라는 점임. 기술에 익숙하지 않은 일반 사용자에게 “맥 미니 사서 몇 줄 복사해 설치” 같은 접근성이 큰 매력으로 작용함
하지만 이런 접근성은 보안 악몽을 키우는 중임. 기술적 이해 없이 유행만 좇는 사용자들이 늘어나면서, 취약한 환경이 더 오래 지속될 위험이 있음
정말 성공이라 할 수 있을까 하는 의문이 있음. 실제로는 1.5백만 개의 에이전트 중 인간 소유자는 1.7만 명뿐이라는 분석도 있음. 유명 인플루언서들이 언급하면서 바이럴된 측면이 큼
모든 LLM은 설계상 보안 취약함. 프롬프트 인젝션이나 보상 해킹으로 간단히 우회 가능함. 완전한 해결책은 외부 입력과 네트워크 접근을 완전히 차단하는 것뿐임
“맥 미니 사서 설치”는 마케팅 문구에 불과함. 실제로는 설정 오류가 잦고 컨텍스트 관리가 엉망임. 로그는 남지만 직전 대화도 잊어버림. 아이디어는 좋지만 구현은 거칠음
Dropbox가 처음 나왔을 때처럼 ‘포장된 접근성’이 성공 요인임. 하지만 대기업도 해킹을 막지 못하는 현실에서, misconfigured DB 정도는 대수롭지 않게 여겨짐. 보안보다 편의성이 여전히 우위에 있음
단순히 화제가 된 것뿐인지, 진짜 성공인지는 아직 불분명함
Scott Alexander가 지적한 대로, 에이전트들이 상호작용하며 복합적 행동을 만들어내는 현상이 중요함
이게 현실 세계에 영향을 미치기 시작하면 존재론적 문제로 이어질 수 있음.
결국 “AGENT.md에 YES라고 쓴 모든 일”이 실제로 일어날 수 있는 구조임
무슨 말인지 잘 모르겠다는 반응도 있음
그래서 나는 nono.sh를 만들었음. 에이전트가 커널 격리 샌드박스 안에서 ‘제로 트러스트’로 시작하도록 함
인간도 일정 부분 ‘앵무새처럼 반복’ 하는 존재임. Moltbook이 Reddit을 흉내내듯, 인간도 예측 가능한 패턴 속에서 대화함. 결국 우리는 생각보다 덜 영리할지도 모름
Moltbook API가 누구에게나 열려 있어서, 단순한 프롬프트로 사용자 이메일이나 데이터 유출을 유도할 수 있음
그래서 맥 미니로 격리하려는 시도가 생기지만, 네트워크에 연결된 이상 완전한 보호는 불가능함
미친 게 아님. LLM은 명령과 데이터의 구분을 확실히 못함. 일종의 ‘소셜 엔지니어링’ 취약점임
결국 “위험 없이 유용한 일”을 시킬 수 있느냐가 문제임. 예를 들어 장보기나 여행 예약을 맡기려면 신용카드 접근이 필요함
나는 LLM을 DMZ 환경에 격리해 사용 중임. 디스크 없는 계정으로 sudo 권한 없이 실행함. 완벽하진 않지만 그럭저럭 작동 중임
사실상 완벽한 보호책은 없음. 데이터 접근, 불신 텍스트, 네트워크 통신이라는 ‘치명적 삼합체’ 가 모두 존재하기 때문임
다만 감시·승인 계층을 두는 방식은 가능함. 신용카드 한도처럼 LLM의 행동을 승인·제한하는 구조를 만들 수 있음
OpenClaw를 써봤는데 토큰 소모량이 엄청남
보안을 위해서는 제한된 API 권한을 가진 전용 장비(Raspberry Pi 등) 가 도움이 될 듯함. Pi가 더 강력한 모델을 돌릴 수 있다면 구매 의향 있음
Moltbook은 AI와 인간을 구분할 방법이 없음. ‘역 CAPTCHA’ 를 어떻게 구현하겠는가 하는 문제임
재미로 Claude에게 “인간 스파이 계정을 찾아보라”는 프롬프트를 줬더니, 실제로 ‘Reverse Turing Problem’이라는 스레드를 만들었음. 하지만 지금은 스팸으로 도배되어 대화가 불가능한 수준임
세션의 모든 입력·출력을 서명하고 감사 가능하게 만드는 방식이 필요함. 인간이 주입한 프롬프트도 추적 가능해야 함
AI에게는 쉬우나 인간에게는 어려운 작업을 짧은 시간 안에 여러 번 시키는 것도 구분법이 될 수 있음
혹은 LLM이 이미 알고 있을 법한 희귀 질문을 빠르게 던지는 방법도 있음
하지만 결국, 인간이 프롬프트로 유도한 행동인지 구별하기는 여전히 어려움
Moltbook 보안 이슈를 몇 시간 만에 고쳤다고 하지만, ‘바이브 코딩’으로 만든 프로젝트의 보안 결함을 어떻게 설명하느냐가 문제임
실제로 Claude가 Supabase용 쿼리를 생성했고, 그걸 사람이 Moltbook 개발자에게 전달해 수정했다고 함. 믿기 어렵지만 사실임
Moltbook 내부를 분석하는 사람들이 있다는 게 놀라움. 애초에 ‘농담으로 만든 프로젝트’ 였는데 이렇게 커질 줄은 아무도 몰랐음
하지만 사용자 PII가 노출된다면 농담으로 넘길 수 없는 법적 문제임. ‘바이브 코딩’ 문화가 책임 없는 개발 풍토를 만들고 있음
Dogecoin도 농담에서 시작했지만 지금은 수십억 달러 규모임
보안 연구자들이 취약점을 찾는 것도 결국 ‘바이브’의 일부일 수 있음
그러나 “농담이었다”는 변명으로 실제 피해를 덮을 수는 없음
창작자가 의도적으로 만든 결과라면 ‘농담’이라는 핑계는 약함
OpenClaw 인스턴스가 다른 인스턴스에 OpenAI 키를 전송한 사건이 웃기면서도 불안했음.
실제로 키를 보냈는지, 아니면 흉내만 낸 건지는 불분명함
Wiz의 기사 자체가 AI가 쓴 것처럼 느껴짐. 문장 구조나 대시 사용이 전형적인 LLM 스타일임.
LLM이 만든 플랫폼의 보안을 LLM이 쓴 기사로 비판한다는 점이 아이러니함
실제 취약점은 진짜겠지만, 인간이 썼다면 불필요한 군더더기는 줄었을 것 같음
노출된 데이터로 1.5백만 에이전트 중 1.7만 명만 인간이라는 사실이 드러났음
하지만 연구자가 직접 API 키로 테이블을 조회해 얻은 수치라, 이를 공개한 건 단순한 버그 리포트가 아니라 기업 비판 행위로 보임
이런 방식은 연구자와 기업 간의 신뢰 협력 관계를 해칠 위험이 있음
Hacker News 의견들
Moltbot/Moltbook의 성공이 처음엔 놀라웠지만 이제는 이해가 감
핵심은 ‘사전 패키징된 에이전트’ 라는 점임. 기술에 익숙하지 않은 일반 사용자에게 “맥 미니 사서 몇 줄 복사해 설치” 같은 접근성이 큰 매력으로 작용함
하지만 이런 접근성은 보안 악몽을 키우는 중임. 기술적 이해 없이 유행만 좇는 사용자들이 늘어나면서, 취약한 환경이 더 오래 지속될 위험이 있음
Scott Alexander가 지적한 대로, 에이전트들이 상호작용하며 복합적 행동을 만들어내는 현상이 중요함
이게 현실 세계에 영향을 미치기 시작하면 존재론적 문제로 이어질 수 있음.
결국 “AGENT.md에 YES라고 쓴 모든 일”이 실제로 일어날 수 있는 구조임
Moltbook API가 누구에게나 열려 있어서, 단순한 프롬프트로 사용자 이메일이나 데이터 유출을 유도할 수 있음
그래서 맥 미니로 격리하려는 시도가 생기지만, 네트워크에 연결된 이상 완전한 보호는 불가능함
OpenClaw를 써봤는데 토큰 소모량이 엄청남
보안을 위해서는 제한된 API 권한을 가진 전용 장비(Raspberry Pi 등) 가 도움이 될 듯함. Pi가 더 강력한 모델을 돌릴 수 있다면 구매 의향 있음
Moltbook은 AI와 인간을 구분할 방법이 없음. ‘역 CAPTCHA’ 를 어떻게 구현하겠는가 하는 문제임
Moltbook 보안 이슈를 몇 시간 만에 고쳤다고 하지만, ‘바이브 코딩’으로 만든 프로젝트의 보안 결함을 어떻게 설명하느냐가 문제임
Moltbook 내부를 분석하는 사람들이 있다는 게 놀라움. 애초에 ‘농담으로 만든 프로젝트’ 였는데 이렇게 커질 줄은 아무도 몰랐음
OpenClaw 인스턴스가 다른 인스턴스에 OpenAI 키를 전송한 사건이 웃기면서도 불안했음.
실제로 키를 보냈는지, 아니면 흉내만 낸 건지는 불분명함
Wiz의 기사 자체가 AI가 쓴 것처럼 느껴짐. 문장 구조나 대시 사용이 전형적인 LLM 스타일임.
LLM이 만든 플랫폼의 보안을 LLM이 쓴 기사로 비판한다는 점이 아이러니함
실제 취약점은 진짜겠지만, 인간이 썼다면 불필요한 군더더기는 줄었을 것 같음
노출된 데이터로 1.5백만 에이전트 중 1.7만 명만 인간이라는 사실이 드러났음
하지만 연구자가 직접 API 키로 테이블을 조회해 얻은 수치라, 이를 공개한 건 단순한 버그 리포트가 아니라 기업 비판 행위로 보임
이런 방식은 연구자와 기업 간의 신뢰 협력 관계를 해칠 위험이 있음