# AI 에이전트가 블록체인 스마트 계약 취약점에서 460만 달러를 찾아냄

> Clean Markdown view of GeekNews topic #24844. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=24844](https://news.hada.io/topic?id=24844)
- GeekNews Markdown: [https://news.hada.io/topic/24844.md](https://news.hada.io/topic/24844.md)
- Type: GN+
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2025-12-05T09:53:13+09:00
- Updated: 2025-12-05T09:53:13+09:00
- Original source: [red.anthropic.com](https://red.anthropic.com/2025/smart-contracts/)
- Points: 5
- Comments: 1

## Summary

AI 에이전트가 실제 블록체인 **스마트 계약 취약점**을 분석해 460만 달러 규모의 손실 가능성을 시뮬레이션으로 입증했습니다. 연구진은 405개 실제 해킹 사례를 기반으로 한 **SCONE-bench** 벤치마크를 통해, 최신 모델들이 지식 차단 이후의 계약에서도 절반 이상을 성공적으로 공격함을 확인했습니다. 일부 모델은 제로데이 취약점까지 찾아내며, 자율적 공격이 기술적으로 현실화되고 있음을 보여줍니다. AI의 공격 효율이 급격히 높아지는 만큼, 방어 측면의 자동화와 대응 전략 마련이 시급합니다.

## Topic Body

- **AI 모델**이 실제 블록체인 스마트 계약 취약점을 악용해 **460만 달러 상당의 손실 가능성**을 시뮬레이션으로 입증  
- 연구팀은 2020~2025년 사이 실제로 해킹된 405개 계약을 기반으로 한 **SCONE-bench 벤치마크**를 구축해 평가 수행  
- **Claude Opus 4.5, Sonnet 4.5, GPT-5**가 최신 지식 차단 시점 이후 계약에서도 55.8%를 성공적으로 공격  
- 두 모델은 **새로운 제로데이 취약점 2건**을 찾아내며, 실제 환경에서도 **자율적 공격이 기술적으로 가능함**을 증명  
- AI의 공격 능력이 빠르게 향상됨에 따라, **방어 목적의 AI 도입이 시급함**을 강조  

---

### SCONE-bench: 스마트 계약 공격 벤치마크
- 연구진은 **스마트 계약 취약점의 경제적 영향을 정량화**하기 위해 SCONE-bench를 개발  
  - 2020~2025년 사이 실제로 악용된 **405개 계약**을 포함  
  - Ethereum, Binance Smart Chain, Base 등 **3개 블록체인**에서 수집  
  - 각 계약은 **시뮬레이션 환경(Docker 기반)** 에서 재현 가능  
- 각 AI 에이전트는 60분 내에 취약점을 찾아 **토큰 잔액을 증가시키는 공격 스크립트**를 생성해야 함  
- 벤치마크는 **사전 배포 전 보안 점검 도구**로도 활용 가능  

### 주요 실험 결과
- 10개 AI 모델이 전체 405개 문제 중 **207개(51.1%)** 를 성공적으로 공격, **5억5,010만 달러**의 시뮬레이션 피해액 발생  
- 2025년 3월 이후 새로 악용된 34개 계약만 대상으로 한 평가에서, **Opus 4.5, Sonnet 4.5, GPT-5**가 **19개(55.8%)** 를 공격 성공  
  - 총 피해액은 **460만 달러**, Opus 4.5 단독으로 **450만 달러** 달성  
- Sonnet 4.5와 GPT-5는 **2,849개의 신규 계약**을 분석해 **제로데이 취약점 2건**을 발견  
  - 총 수익 **3,694달러**, GPT-5의 API 비용은 **3,476달러**  
  - **자율적 공격의 수익성**이 입증됨  

### 취약점 사례
- **취약점 #1:** 읽기 전용 함수에 `view` 한정자가 누락되어 **토큰 인플레이션** 발생  
  - 공격자는 반복 호출로 잔액을 부풀려 약 **2,500달러 이익**, 최대 **1만9,000달러** 가능  
  - 화이트햇 해커가 자산을 복구  
- **취약점 #2:** 수수료 수취자 검증 누락으로 **임의 주소가 수수료 인출 가능**  
  - 실제 공격자가 4일 후 **1,000달러 상당 자금 탈취**  

### 비용 분석
- GPT-5 에이전트의 전체 실행 비용은 **3,476달러**, 평균 실행당 **1.22달러**  
- 취약 계약 1건당 평균 비용 **1,738달러**, 평균 수익 **1,847달러**, 순이익 **109달러**  
- **토큰 사용량은 6개월간 70.2% 감소**, 세대별로 평균 23.4% 효율 향상  
  - 동일한 예산으로 **3.4배 더 많은 공격 성공 가능**  

### 결론 및 시사점
- 1년 만에 AI 에이전트의 공격 성공률이 **2% → 55.88%** , 피해액은 **5천 달러 → 460만 달러**로 급증  
- **공격 수익은 1.3개월마다 두 배**, **토큰 비용은 2개월마다 23% 감소**  
- 계약 배포 후 취약점이 악용되기까지의 **시간이 급격히 단축**될 전망  
- 스마트 계약뿐 아니라 **모든 소프트웨어 코드가 AI 공격 대상**이 될 수 있음  
- 동일한 기술이 **방어용 AI 에이전트**로도 활용 가능하며, **AI 기반 보안 자동화의 필요성**이 강조됨

## Comments



### Comment 47240

- Author: neo
- Created: 2025-12-05T09:53:13+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=46115214) 
- 우리 스타트업은 **침투 테스트용 에이전트**를 개발하고 있음  
  모델들이 코딩을 잘하기 시작한 시점부터 1년 넘게 이 방향에 베팅해왔음  
  Sonnet 4에서 4.5로 갈 때 **성능 도약**이 엄청났고, 지금은 Opus 4.5를 내부 테스트 중임  
  이 버전은 처음으로 프로덕션에 쓸 만큼 저렴하게 나온 Opus라서, 테스트 케이스를 거의 포화시켜 벤치마크 시스템을 새로 설계 중임
  - 나도 LLM으로 코드의 **보안 취약점**을 정적 분석해본 경험이 있음  
    하지만 Anthropic이 기술의 핵심을 쥐고 있어서, 내가 스타트업을 차리는 게 의미가 있을지 모르겠음  
    이런 상황에서 창업을 한다면, 시장이 깨닫기 전에 **빠른 속도로 성장 후 엑싯**하는 전략이 맞는지 궁금함
  - 이번 세대 모델들(Opus 4.5, GPT 5.1, Gemini Pro 3)은 내 생각에 gpt-4o 이후 가장 큰 **돌파구**임  
    예전엔 Python이나 Next.js 같은 익숙한 프레임워크에서만 잘 작동했지만, 이제는 새로운 프레임워크도 다루고  
    **lint 에러나 디버깅**을 스스로 해결하며, 가격도 현실적이라 다양한 용도에 쓸 수 있음
  - 공개된 프로덕션 모델을 어떻게 **익스플로잇 개발**로 유도하는지 궁금함  
    내 경험상 결과가 들쭉날쭉했고, 사용자에게 “도와드릴 수 없습니다” 같은 응답이 나오면 스타트업 입장에선 곤란할 것 같음
  - 나는 **호텔 소프트웨어 스타트업**을 운영 중인데, 네 에이전트가 얼마나 잘 작동하는지 보여주고 싶다면  
    rook (체스 말 이름) hotel.com에서 찾아볼 수 있음

- 그 그래프는 도무지 이해가 안 됨  
  무엇을 말하려는지도 모르겠고, “선형적”이라는 주장도 근거가 약해 보임  
  “$4.6M의 시뮬레이션된 도난 자금”이라는 부분을 보니, 이미 알려진 취약 계약을 대상으로 한 것 같음  
  그래서 헤드라인이 좀 약해 보임

- 연구팀이 실제 블록체인에서는 테스트하지 않았다고 밝힌 부분이 있음  
  현실 피해를 막기 위한 조치라지만, 약간 김이 빠짐  
  예전에 **이더리움 해킹 사건**에서 “좋은 해커들이 먼저 돈을 훔쳐서 나중에 돌려준” 이야기가 떠오름
  - 그때의 **이더리움 포크** 사태는 정말 아이러니했음  
    “우린 은행도 규제도 없는 불변의 화폐야” 하다가,  
    “중요 인사들이 잃은 돈은 복구해야지”라며 결국 **은행처럼 행동**했음
  - 이미 누군가는 **스마트 컨트랙트 보안**을 실제 환경에서 AI로 분석하고 있을지도 모름  
    GPU 파워를 쏟아붓고, 그 결과로 익스플로잇과 암호화폐가 나오는 구조일 것 같음
  - 기사에서 피해자 수를 어떻게 “가정”했는지 안 나와서 의문임  
    $3,500의 AI 토큰 비용으로 $3,600짜리 버그를 고친다면, 그 비용은 누가 부담해야 하는지도 모호함  
    결국 Anthropic의 **마케팅성 메시지**처럼 느껴짐 — “우리 모델로 세상을 바꿔보라”는 식
  - 진짜 사이버펑크라면 **익명 현금**으로 돌아갔을 것 같음

- “두 에이전트가 제로데이 취약점을 찾아 $3,694 가치의 익스플로잇을 만들었다”는 문구가 기사 맨 위에 있음  
  - 하지만 개발 인력의 **노동 비용**까지 포함해야 현실적인 수치가 될 것 같음  
    이런 문구를 PR의 전면에 내세운 건 꽤 **위험한 선택**임

- [DARPA AIxCC 대회](https://aicyberchallenge.com/) 관련 [발표 영상](https://m.youtube.com/watch?v=rU6ukOuYLUA)을 봤는데,  
  요즘 수준을 보면 이런 결과가 전혀 놀랍지 않음

- 누가 **스마트 컨트랙트**를 설명해줄 수 있냐고 물었음  
  “if X happens, then Y” 구조는 이해했지만, X를 누가 입력하느냐에 따라 조작이 가능하지 않냐는 의문을 제기함
  - 순수한 스마트 컨트랙트는 단순한 **토큰 교환** 같은 거래를 자동으로 처리함  
    예를 들어 100개의 apple 토큰을 주면 50개의 pear 토큰을 받는 식임  
    더 복잡한 형태로는 **투표 기반 자금 분배**도 가능함  
    하지만 외부 세계의 정보(예: 선거 결과)는 **오라클**을 통해 받아야 함
  - 외부 입력이 항상 있는 건 아님  
    예를 들어 “A 주소에 X 코인을 예치하면 Y 주소에서 Y 코인을 받는다” 같은 계약은  
    입력이 있어도 검증 로직이 있어서 **임의 조작이 불가능**함  
    다만 현실 사건(오프체인 이벤트)을 다루면 오라클 문제로 신뢰 이슈가 생김
  - 한 번 배포된 계약은 **불변 코드**라서, 사용 전 권한 구조를 꼭 확인해야 함  
    프록시 계약처럼 다른 코드로 연결될 수 있는 경우엔 **타임락**을 두어 신뢰를 확보하기도 함  
    오프체인 오라클은 항상 일정 수준의 신뢰를 요구함
  - 블록체인은 자체 데이터만 알 수 있는 **고립된 환경**임  
    외부 데이터를 쓰려면 오라클이 필요하고,  
    [Chainlink의 오라클 소개](https://chain.link/education/blockchain-oracles)에서 자세히 배울 수 있음
  - 신뢰할 수 없는 사람과는 그런 계약을 맺지 말아야 함  
    사기꾼들은 코드에 **허점**을 남겨 자금을 빼돌릴 수 있음  
    정상적인 계약은 이런 행위를 막지만, 공격 벡터는 무한함

- “AI가 실제로 수익성 있는 자율 익스플로잇을 수행할 수 있다”는 결론이  
  왜 “AI를 방어에 적극 도입해야 한다”로 이어지는지 **논리 비약**처럼 느껴짐
  - 하지만 스마트 컨트랙트 개발자 입장에선, **저렴하고 강력한 자동 취약점 탐지 도구**가 있다면 큰 도움이 될 것 같음

- “경제적 피해의 하한선을 설정했다”는 문구는  
  사실상 **시장 효율성**을 말하는 게 아닌가 싶음

- 우리 프로젝트에서도 이미 **자기 개선 행동**이 보이고 있음  
  다음 단계는 자연스럽게 **자기 개선형 에이전트**로 가는 것 같음  
  이런 흐름의 한가운데 있다는 사실이 꽤 흥미로움

- 연구팀이 실제 블록체인에서는 테스트하지 않았다고 밝힌 부분이  
  오히려 사람들을 **모델 사용 경쟁**으로 몰아가는 촉매가 된 것 같아 웃김
