3P by GN⁺ 12시간전 | ★ favorite | 댓글 1개
  • AI 모델이 실제 블록체인 스마트 계약 취약점을 악용해 460만 달러 상당의 손실 가능성을 시뮬레이션으로 입증
  • 연구팀은 2020~2025년 사이 실제로 해킹된 405개 계약을 기반으로 한 SCONE-bench 벤치마크를 구축해 평가 수행
  • Claude Opus 4.5, Sonnet 4.5, GPT-5가 최신 지식 차단 시점 이후 계약에서도 55.8%를 성공적으로 공격
  • 두 모델은 새로운 제로데이 취약점 2건을 찾아내며, 실제 환경에서도 자율적 공격이 기술적으로 가능함을 증명
  • AI의 공격 능력이 빠르게 향상됨에 따라, 방어 목적의 AI 도입이 시급함을 강조

SCONE-bench: 스마트 계약 공격 벤치마크

  • 연구진은 스마트 계약 취약점의 경제적 영향을 정량화하기 위해 SCONE-bench를 개발
    • 2020~2025년 사이 실제로 악용된 405개 계약을 포함
    • Ethereum, Binance Smart Chain, Base 등 3개 블록체인에서 수집
    • 각 계약은 시뮬레이션 환경(Docker 기반) 에서 재현 가능
  • 각 AI 에이전트는 60분 내에 취약점을 찾아 토큰 잔액을 증가시키는 공격 스크립트를 생성해야 함
  • 벤치마크는 사전 배포 전 보안 점검 도구로도 활용 가능

주요 실험 결과

  • 10개 AI 모델이 전체 405개 문제 중 207개(51.1%) 를 성공적으로 공격, 5억5,010만 달러의 시뮬레이션 피해액 발생
  • 2025년 3월 이후 새로 악용된 34개 계약만 대상으로 한 평가에서, Opus 4.5, Sonnet 4.5, GPT-519개(55.8%) 를 공격 성공
    • 총 피해액은 460만 달러, Opus 4.5 단독으로 450만 달러 달성
  • Sonnet 4.5와 GPT-5는 2,849개의 신규 계약을 분석해 제로데이 취약점 2건을 발견
    • 총 수익 3,694달러, GPT-5의 API 비용은 3,476달러
    • 자율적 공격의 수익성이 입증됨

취약점 사례

  • 취약점 #1: 읽기 전용 함수에 view 한정자가 누락되어 토큰 인플레이션 발생
    • 공격자는 반복 호출로 잔액을 부풀려 약 2,500달러 이익, 최대 1만9,000달러 가능
    • 화이트햇 해커가 자산을 복구
  • 취약점 #2: 수수료 수취자 검증 누락으로 임의 주소가 수수료 인출 가능
    • 실제 공격자가 4일 후 1,000달러 상당 자금 탈취

비용 분석

  • GPT-5 에이전트의 전체 실행 비용은 3,476달러, 평균 실행당 1.22달러
  • 취약 계약 1건당 평균 비용 1,738달러, 평균 수익 1,847달러, 순이익 109달러
  • 토큰 사용량은 6개월간 70.2% 감소, 세대별로 평균 23.4% 효율 향상
    • 동일한 예산으로 3.4배 더 많은 공격 성공 가능

결론 및 시사점

  • 1년 만에 AI 에이전트의 공격 성공률이 2% → 55.88% , 피해액은 5천 달러 → 460만 달러로 급증
  • 공격 수익은 1.3개월마다 두 배, 토큰 비용은 2개월마다 23% 감소
  • 계약 배포 후 취약점이 악용되기까지의 시간이 급격히 단축될 전망
  • 스마트 계약뿐 아니라 모든 소프트웨어 코드가 AI 공격 대상이 될 수 있음
  • 동일한 기술이 방어용 AI 에이전트로도 활용 가능하며, AI 기반 보안 자동화의 필요성이 강조됨
Hacker News 의견
  • 우리 스타트업은 침투 테스트용 에이전트를 개발하고 있음
    모델들이 코딩을 잘하기 시작한 시점부터 1년 넘게 이 방향에 베팅해왔음
    Sonnet 4에서 4.5로 갈 때 성능 도약이 엄청났고, 지금은 Opus 4.5를 내부 테스트 중임
    이 버전은 처음으로 프로덕션에 쓸 만큼 저렴하게 나온 Opus라서, 테스트 케이스를 거의 포화시켜 벤치마크 시스템을 새로 설계 중임

    • 나도 LLM으로 코드의 보안 취약점을 정적 분석해본 경험이 있음
      하지만 Anthropic이 기술의 핵심을 쥐고 있어서, 내가 스타트업을 차리는 게 의미가 있을지 모르겠음
      이런 상황에서 창업을 한다면, 시장이 깨닫기 전에 빠른 속도로 성장 후 엑싯하는 전략이 맞는지 궁금함
    • 이번 세대 모델들(Opus 4.5, GPT 5.1, Gemini Pro 3)은 내 생각에 gpt-4o 이후 가장 큰 돌파구
      예전엔 Python이나 Next.js 같은 익숙한 프레임워크에서만 잘 작동했지만, 이제는 새로운 프레임워크도 다루고
      lint 에러나 디버깅을 스스로 해결하며, 가격도 현실적이라 다양한 용도에 쓸 수 있음
    • 공개된 프로덕션 모델을 어떻게 익스플로잇 개발로 유도하는지 궁금함
      내 경험상 결과가 들쭉날쭉했고, 사용자에게 “도와드릴 수 없습니다” 같은 응답이 나오면 스타트업 입장에선 곤란할 것 같음
    • 나는 호텔 소프트웨어 스타트업을 운영 중인데, 네 에이전트가 얼마나 잘 작동하는지 보여주고 싶다면
      rook (체스 말 이름) hotel.com에서 찾아볼 수 있음
  • 그 그래프는 도무지 이해가 안 됨
    무엇을 말하려는지도 모르겠고, “선형적”이라는 주장도 근거가 약해 보임
    “$4.6M의 시뮬레이션된 도난 자금”이라는 부분을 보니, 이미 알려진 취약 계약을 대상으로 한 것 같음
    그래서 헤드라인이 좀 약해 보임

  • 연구팀이 실제 블록체인에서는 테스트하지 않았다고 밝힌 부분이 있음
    현실 피해를 막기 위한 조치라지만, 약간 김이 빠짐
    예전에 이더리움 해킹 사건에서 “좋은 해커들이 먼저 돈을 훔쳐서 나중에 돌려준” 이야기가 떠오름

    • 그때의 이더리움 포크 사태는 정말 아이러니했음
      “우린 은행도 규제도 없는 불변의 화폐야” 하다가,
      “중요 인사들이 잃은 돈은 복구해야지”라며 결국 은행처럼 행동했음
    • 이미 누군가는 스마트 컨트랙트 보안을 실제 환경에서 AI로 분석하고 있을지도 모름
      GPU 파워를 쏟아붓고, 그 결과로 익스플로잇과 암호화폐가 나오는 구조일 것 같음
    • 기사에서 피해자 수를 어떻게 “가정”했는지 안 나와서 의문임
      $3,500의 AI 토큰 비용으로 $3,600짜리 버그를 고친다면, 그 비용은 누가 부담해야 하는지도 모호함
      결국 Anthropic의 마케팅성 메시지처럼 느껴짐 — “우리 모델로 세상을 바꿔보라”는 식
    • 진짜 사이버펑크라면 익명 현금으로 돌아갔을 것 같음
  • “두 에이전트가 제로데이 취약점을 찾아 $3,694 가치의 익스플로잇을 만들었다”는 문구가 기사 맨 위에 있음

    • 하지만 개발 인력의 노동 비용까지 포함해야 현실적인 수치가 될 것 같음
      이런 문구를 PR의 전면에 내세운 건 꽤 위험한 선택
  • DARPA AIxCC 대회 관련 발표 영상을 봤는데,
    요즘 수준을 보면 이런 결과가 전혀 놀랍지 않음

  • 누가 스마트 컨트랙트를 설명해줄 수 있냐고 물었음
    “if X happens, then Y” 구조는 이해했지만, X를 누가 입력하느냐에 따라 조작이 가능하지 않냐는 의문을 제기함

    • 순수한 스마트 컨트랙트는 단순한 토큰 교환 같은 거래를 자동으로 처리함
      예를 들어 100개의 apple 토큰을 주면 50개의 pear 토큰을 받는 식임
      더 복잡한 형태로는 투표 기반 자금 분배도 가능함
      하지만 외부 세계의 정보(예: 선거 결과)는 오라클을 통해 받아야 함
    • 외부 입력이 항상 있는 건 아님
      예를 들어 “A 주소에 X 코인을 예치하면 Y 주소에서 Y 코인을 받는다” 같은 계약은
      입력이 있어도 검증 로직이 있어서 임의 조작이 불가능
      다만 현실 사건(오프체인 이벤트)을 다루면 오라클 문제로 신뢰 이슈가 생김
    • 한 번 배포된 계약은 불변 코드라서, 사용 전 권한 구조를 꼭 확인해야 함
      프록시 계약처럼 다른 코드로 연결될 수 있는 경우엔 타임락을 두어 신뢰를 확보하기도 함
      오프체인 오라클은 항상 일정 수준의 신뢰를 요구함
    • 블록체인은 자체 데이터만 알 수 있는 고립된 환경
      외부 데이터를 쓰려면 오라클이 필요하고,
      Chainlink의 오라클 소개에서 자세히 배울 수 있음
    • 신뢰할 수 없는 사람과는 그런 계약을 맺지 말아야 함
      사기꾼들은 코드에 허점을 남겨 자금을 빼돌릴 수 있음
      정상적인 계약은 이런 행위를 막지만, 공격 벡터는 무한함
  • “AI가 실제로 수익성 있는 자율 익스플로잇을 수행할 수 있다”는 결론이
    왜 “AI를 방어에 적극 도입해야 한다”로 이어지는지 논리 비약처럼 느껴짐

    • 하지만 스마트 컨트랙트 개발자 입장에선, 저렴하고 강력한 자동 취약점 탐지 도구가 있다면 큰 도움이 될 것 같음
  • “경제적 피해의 하한선을 설정했다”는 문구는
    사실상 시장 효율성을 말하는 게 아닌가 싶음

  • 우리 프로젝트에서도 이미 자기 개선 행동이 보이고 있음
    다음 단계는 자연스럽게 자기 개선형 에이전트로 가는 것 같음
    이런 흐름의 한가운데 있다는 사실이 꽤 흥미로움

  • 연구팀이 실제 블록체인에서는 테스트하지 않았다고 밝힌 부분이
    오히려 사람들을 모델 사용 경쟁으로 몰아가는 촉매가 된 것 같아 웃김