[GN#355] 잃어버린 기본기를 찾아서

2026-04-20 ~ 2026-04-26 사이의 주요 뉴스들

AI 코딩 에이전트가 코드를 뚝딱 만들어주는 시대가 되면서, “소프트웨어 공학” 이라는 단어 자체의 무게감도 조금 달라지고 있습니다. Cursor에 프롬프트를 넣으면 컴포넌트가 나오고, Claude에게 부탁하면 테스트 코드까지 작성해 줍니다. 하지만 그렇게 만들어진 코드가 프로덕션에서 6개월, 1년을 버틸 수 있을까요? 팀원이 바뀌었을 때 누군가 그 코드를 이해하고 유지보수할 수 있을까요?

코드를 “작성하는” 비용은 낮아졌지만, 좋은 소프트웨어를 “설계하고 유지하는” 능력의 가치는 오히려 높아지고 있습니다. 빠르게 만드는 것보다 중요한 것은, 그 코드가 팀과 시스템 안에서 오래 살아남을 수 있는지를 판단하는 일입니다.

소프트웨어 공학의 법칙들은 소프트웨어 시스템, 팀, 의사결정에 영향을 미치는 56가지 원칙과 패턴을 한곳에 모은 컬렉션입니다. Conway의 법칙, Brooks의 법칙, Metcalfe의 법칙, 기술 부채, KISS, 파레토 원칙처럼 개발자라면 한 번쯤 들어봤을 법한 원칙들이 팀 운영, 아키텍처, 품질, 설계, 의사결정 영역으로 정리되어 있습니다.

56개 전부를 외울 필요는 없지만, AI 시대에 특히 다시 떠올릴 만한 원칙들이 있습니다. Gall의 법칙은 “작동하는 복잡한 시스템은 반드시 작동하는 단순한 시스템에서 진화한 결과” 라고 말합니다. AI가 한 번에 복잡한 구조를 만들어줄 수 있게 되면서, 처음부터 거대한 시스템을 만들고 싶은 유혹은 더 커졌습니다. 하지만 검증되지 않은 복잡성은 여전히 실패 확률을 높입니다. MVP에서 시작해 점진적으로 확장하는 원칙은 AI 시대에도 유효합니다.

Kernighan의 법칙도 요즘에 더 부각됩니다. “디버깅은 코드를 작성하는 것보다 두 배 어렵다” 는, AI가 작성한 코드를 우리가 디버깅해야 하는 상황에서 더 현실적입니다. 내가 직접 작성하지 않은 코드의 의도와 맥락을 파악하는 일은 여전히 어렵고, 때로는 직접 짜는 것보다 더 많은 비용이 듭니다.

YAGNI (You Aren't Gonna Need It) 역시 마찬가지입니다. AI에게 “확장 가능하게 만들어줘”라고 요청하면 필요 이상의 추상화와 구조가 따라오는 경우가 많습니다. 지금 JSON 내보내기만 필요하다면, JSON만 구현하면 됩니다. 과잉 설계를 걸러내는 판단력은 여전히 사람의 몫입니다.

결국 중요한 것은 법칙을 많이 아는 것이 아니라, 언제 어떤 법칙을 적용하고 언제 깨야 하는지 아는 일입니다. 이 판단력이야말로 AI가 코드를 많이 만들어내는 시대에 더 중요해지는 엔지니어의 기본기입니다.

앞의 글이 교과서적인 원칙을 정리한 글이라면, 시니어 엔지니어로서 배운 것들 (2021)은 현장에서 부딪히며 체득한 경험담에 가깝습니다. 2021년에 작성된 글이지만, 시간이 지날수록 오히려 더 공감되는 내용이 많습니다.

특히 글쓴이는 “가장 과소평가된 능력은 문서화” 라고 단언하는데요. 여기서 말하는 문서화는 단순히 코드에 주석을 다는 일이 아닙니다. “왜 이런 선택을 했는지”, 그리고 “왜 다른 선택을 하지 않았는지”를 남기는 일입니다. 200줄짜리 함수가 왜 존재하는지, 어떤 시간 압박이나 외부 시스템의 이상한 동작 때문에 그렇게 되었는지를 기록해두면, 미래의 동료와 미래의 자신이 그 코드를 훨씬 쉽게 이해할 수 있습니다. AI가 코드를 더 많이 만들어낼수록, 코드 자체보다 그 코드가 생겨난 맥락을 남기는 일이 더 중요해집니다.

소프트웨어 공학 얘기할 때마다 등장하는 마틴 파울러기술 부채, 인지 부채, 의도 부채는 앞의 두 글을 하나의 프레임으로 묶어줍니다. 지금까지 우리는 주로 기술 부채를 이야기했습니다. 코드가 미래의 변경 가능성을 해치고, 리팩토링을 어렵게 만들고, 개발 속도를 늦추는 문제입니다. 하지만 AI가 대량의 코드를 생성하는 환경에서는 부채가 코드 안에만 쌓이지 않습니다.

인지 부채는 사람에게 쌓입니다. 팀이 시스템에 대한 공유 이해를 잃어버릴 때 생기는 부채입니다. 누가 봐도 동작은 하지만, 아무도 왜 그렇게 동작하는지 설명하지 못하는 코드가 늘어날수록 팀의 판단력은 약해집니다. 그래서 앞서 말한 문서화와 맥락 기록은 단순한 정리 작업이 아니라 인지 부채를 줄이는 핵심 활동이 됩니다.

의도 부채는 더 교묘합니다. 시스템의 목표와 제약이 제대로 기록되지 않거나 오래된 상태로 남아 있을 때 쌓입니다. 테스트는 계속 통과하지만, 원래의 비즈니스 제약은 이미 바뀌었고 아무도 그 변화를 코드나 문서에 반영하지 않은 상황이 그렇습니다. 이런 문제는 테스트 스위트만으로는 발견하기 어렵습니다. “이 시스템은 무엇을 위해 존재하는가” 라는 의도를 계속 붙잡고 있어야 합니다.

파울러 글에서 가장 인상적인 메시지는, 코딩 비용이 낮아질수록 비싸지는 것은 검증이라는 점입니다. AI가 코드를 더 빠르게 만들수록 “무엇을 배포했는가”보다 “무엇을 검증했는가” 가 중요해집니다. 기능을 많이 만드는 팀보다, 올바른 기준을 세우고 그 기준에 맞게 결과를 확인할 수 있는 팀이 더 강해질 가능성이 큽니다.

도구가 아무리 강력해져도, 그 도구로 무엇을 만들지 판단하고, 만들어진 것이 올바른지 검증하고, 왜 그렇게 만들었는지 기록하는 일은 여전히 사람의 일입니다. AI가 코드 작성의 문턱을 낮춰준 덕분에, 이제는 “코드를 잘 짜는 사람”보다 “좋은 소프트웨어가 무엇인지 아는 사람”의 가치가 더 또렷해지고 있습니다.

기본기는 유행을 타지 않습니다. 오히려 도구가 강력해질수록, 기본기는 더 선명하게 드러납니다.


Feedback : 긱뉴스 위클리 어떻게 읽고 계신가요? 의견과 제안 부탁드려요

Show GN - 직접 만드신 오픈소스나, 재직중인 스타트업의 제품/서비스를 소개해주세요.


매주 월요일 아침, 지난 일주일간의 GeekNews 중 엄선한 뉴스들을 이메일로 보내드립니다.


  • 소프트웨어 공학의 법칙들

    메인에서 다룬 내용 외에도, 팀 영역(Conway의 법칙, Brooks의 법칙, Dunbar의 수)과 의사결정 영역(Dunning-Kruger 효과, 매몰 비용 오류, Lindy 효과) 쪽 법칙들이 특히 읽을거리가 많습니다. 56개 법칙을 한꺼번에 읽기보다는 자기 상황에 맞는 카테고리부터 브라우징하는 걸 추천합니다. 요즘 AI 도구 선택에 고민이 많다면 Hype Cycle과 Lindy 효과 파트가, 팀 확장기에 있다면 Ringelmann 효과와 Price의 법칙 파트가 와닿을 겁니다.

  • 시니어 엔지니어로서 배운 것들 (2021)

    위에서는 문서화 이야기를 했지만, 이 글에는 그 외에도 곱씹을 거리가 많습니다. 특히 동적 언어 vs 정적 타입 논쟁에서 "좋은 설계는 언어 선택보다 경계와 계약을 얼마나 명확히 두느냐에 달렸다"는 관점이 인상적입니다. 자신의 코드가 5년 넘게 프로덕션에서 살아남는 걸 지켜보는 경험이 주는 장기 피드백 루프도 잦은 이직이 보편화된 지금 다시 생각해볼 가치가 있습니다. "2주 안에 새 직장을 구한다"는 문장은 2021년 과열 시장의 산물이라 지금 읽으면 씁쓸하지만, 그래서 오히려 시장 상황과 무관하게 유효한 조언들이 더 또렷하게 걸러집니다.

  • 기술 부채, 인지 부채, 의도 부채

    파울러는 LLM 친화적 프로그래밍 언어의 미래도 함께 다루는데, 일부는 아예 LLM을 위해 설계된 새 언어를 실험 중이고 다른 쪽은 TypeScript나 Rust 같은 엄격한 타입 언어가 AI에 더 잘 맞는다고 봅니다. 또한 AI 시대에도 인간이 계속 맡게 될 역할로 유용한 추상화 만들기와 이름 짓기를 꼽은 부분이 인상적입니다. DDD의 Ubiquitous Language와 연결되는 이야기인데, 결국 코드가 무엇을 하는지 팀이 같은 언어로 이야기할 수 있게 만드는 일은 AI가 대신하기 어렵다는 뜻입니다.

  • Claude Code 및 Codex 설정 변경으로 토큰을 절약하는 방법

    Claude Code와 Codex를 실무에서 쓰고 있다면 꼭 한번 읽어볼 글입니다. 토큰이 새는 경로를 시스템 프롬프트, 툴 호출 출력, 외부 연동 세 가지로 나누고, 각각을 줄일 수 있는 구체적인 설정값과 환경변수를 정리해뒀습니다. 특히 Claude Code에서 includeGitInstructionsautoConnectIde를 끄는 것만으로도 매 턴 붙는 불필요한 컨텍스트를 줄일 수 있다는 점은 바로 적용해볼 만합니다. 최근 Opus 4.7이 4.6 대비 토큰 소모가 1.5배 가까이 늘었다는 분석도 있어서, 비용 관리가 점점 중요해지고 있습니다.

  • 프로그래밍의 일곱 가지 원형 언어 (2022)

    프로그래밍 언어를 문법이 아니라 사고 패턴의 계보로 나눈 글입니다. ALGOL, Lisp, ML, Self, Forth, APL, Prolog 이 일곱 가지 원형 언어가 결국 모든 언어의 뿌리라는 관점인데, 새 언어를 배울 때 같은 원형 안에서의 이동은 쉽지만 다른 원형으로 넘어가면 사고 방식 자체를 바꿔야 한다는 점이 핵심입니다. 요즘 AI가 코드를 대신 짜주는 시대에 "어떤 언어를 배워야 하나"보다 "어떤 사고 패턴을 익혀야 하나" 가 더 중요한 질문이 되고 있어서, 이 프레임이 더 유용하게 느껴집니다.

  • 프로덕션 환경에서 바이브 코딩을 책임감 있게 하는 법 - Vibe coding in prod | Code w/ Claude

    Anthropic의 코딩 에이전트 연구자가 바이브 코딩을 프로덕션에서 안전하게 쓰는 법을 다룬 발표입니다. 핵심은 "코드는 잊되, 제품은 잊지 말 것" 바이브 코딩을 다른 코드가 의존하지 않는 리프 노드에 한정하고, 핵심 아키텍처는 여전히 사람이 관리해야 한다는 점입니다. Anthropic 내부에서 실제로 22,000줄짜리 강화학습 코드를 Claude로 작성해 프로덕션에 머지한 사례가 나오는데, 코드를 전부 읽지 않고도 입출력 기반 검증으로 안정성을 확인했다고 합니다. 이번 주 메인에서 다룬 "검증이 비싸진다"는 파울러의 메시지와 정확히 맞닿는 이야기입니다.

  • Garry Tan의 "Skillify" — AI 에이전트의 실패를 영구적 구조 수정으로 바꾸는 방법론

    YC 대표 Garry Tan이 제안한 AI 에이전트 품질 관리 방법론입니다. 에이전트가 실수하면 그걸 일회성 프롬프트 수정으로 끝내지 않고, 마크다운 절차서 + 결정론적 스크립트 + 자동화 테스트로 구성된 "스킬"로 영구 전환하는 10단계 체크리스트를 제시합니다. 타임존 계산처럼 코드가 100ms 안에 답할 수 있는 일을 LLM이 암산하다 틀리는 사례가 인상적인데, 판단이 필요한 작업과 정밀성이 필요한 작업을 명확히 구분하는 것이 핵심입니다. "모든 버그에 회귀 테스트를 붙인다"는 소프트웨어 공학의 오래된 원칙을 에이전트 영역에 적용한 셈이라, 이번 주 메인 주제인 기본기 이야기와도 잘 이어집니다.

  • DESIGN.md — AI 코딩 도구를 위한 디자인 시스템 단일 파일 포맷 (한국어 정리)

    Google Labs가 제안한 DESIGN.md는 디자인 시스템을 마크다운 파일 하나로 표현하는 포맷입니다. YAML에는 토큰 값을 기계가 읽을 수 있게 두고, 마크다운 본문에는 "왜 이 색을 쓰는지" 같은 디자인 판단 근거를 사람과 AI가 함께 읽을 수 있게 적는 이중 구조가 핵심입니다. AI가 UI를 더 많이 만들수록 "AI가 디자인을 잘하느냐"보다 "AI가 따라야 할 기준을 팀이 얼마나 명확히 남겨뒀느냐" 가 중요해지고 있는데, 이 포맷은 그 기준을 Notion이나 PDF가 아닌 코드베이스 안에 두려는 실용적 시도입니다. 한국어로 28챕터짜리 커리큘럼으로 정리해주셔서 영문 스펙을 뒤지지 않아도 됩니다.

  • kumo - Go로 작성된 경량 AWS 서비스 에뮬레이터

    Go로 작성된 경량 AWS 에뮬레이터로, 단일 바이너리에 76개 AWS 서비스를 넣어 로컬에서 돌릴 수 있습니다. LocalStack의 대안을 찾고 있다면 눈여겨볼 만한데, 인증 없이 바로 동작하고 인메모리로 깔끔하게 실행되는 점이 CI/CD 파이프라인에 특히 유용합니다. SES로 보낸 이메일이나 Pinpoint SMS 메시지를 별도 엔드포인트로 조회할 수 있어서, 외부 서비스 의존 없이 발송 결과를 검증할 수 있는 것도 실용적입니다.

  • GoScrapy - Go기반 초고속 웹 스크래핑 프레임워크

    Python Scrapy의 아키텍처를 Go로 네이티브 구현한 웹 스크래핑 프레임워크입니다. goscrapy startproject 한 줄이면 프로젝트 구조부터 의존성까지 자동으로 세팅되고, Go의 동시성 모델을 활용한 고처리량 병렬 스크래핑이 핵심입니다. CSV, JSON은 물론 MongoDB, Google Sheets, Firebase까지 내보내기 파이프라인이 기본 내장되어 있고, Fingerprint Spoofing 같은 봇 탐지 우회 예제도 제공합니다. 아직 v0.x 단계이고 라이선스가 BSL(프레임워크 자체를 경쟁 서비스로 재판매하는 것만 제한) 이라 상용 프로젝트에도 사용 가능합니다.

  • LLM으로 할 수 있는 비전형적인 일 7가지

    LLM을 챗봇이나 코드 생성 너머로 활용하는 7가지 비전형적 사용법을 프롬프트 예시와 함께 정리한 글입니다. 그중 악마의 변호인 역할러버 덕킹 자동화가 개발자에게 특히 실용적인데, 댓글에서도 Gemini Gems나 Claude 맞춤 설정으로 악마의 대변인을 상시 세팅해두면 논리 정교화에 도움이 된다는 경험이 공유되었습니다. 계약서 검토나 문화적 맥락 브릿징 같은 항목은 개발 외 영역에서도 바로 써먹을 수 있어서 한번 훑어볼 만합니다.

  • Why 2026 Seniors are just highly-paid Code Editors, on Addy Osmani

    Google의 Addy Osmani가 JS Nation US 인터뷰에서 AI 시대 시니어 개발자의 역할 변화를 이야기한 영상입니다. 핵심은 제목 그대로, 시니어의 역할이 코드를 작성하는 사람에서 코드를 평가하고 편집하는 사람으로 이동하고 있다는 것입니다. AI가 70%까지 데려다 주지만 나머지 30%의 품질과 정합성은 여전히 사람의 몫이라는 "70% 문제" 는 1년이 지난 지금도 유효합니다. 산책하면서 GitHub 앱으로 에이전트에 작업을 맡기고 돌아올 때 PR을 받는다는 실전 워크플로도 흥미롭고, Chrome DevTools MCP로 에이전트에 "눈"을 부여하는 흐름도 주목할 만합니다.

  • iroh - 공개키 기반 초고속 P2P 네트워크 연결 라이브러리 오픈소스

    IP 주소가 아니라 공개키로 상대 노드를 지정하면, 위치와 네트워크 환경에 상관없이 가장 빠른 경로를 알아서 찾아 연결해주는 Rust 기반 P2P 라이브러리입니다. QUIC 기반이라 암호화, 동시 스트림, 지연 없는 통신이 기본이고, ESP32 같은 임베디드부터 클라우드 서버까지 동일한 API로 동작합니다. 대용량 블롭 전송, pub/sub, 분산 키-값 저장소 같은 확장 프로토콜도 이미 준비되어 있어서 분산 앱을 만들 때 네트워크 레이어를 직접 구현하는 수고를 크게 줄여줍니다.

  • vLLM Recipes 개편 - 모델+하드웨어 조합별 설정을 딸각 한방으로

    vLLM으로 "이 모델을 이 하드웨어에서 어떻게 돌리지?" 라는 질문에 바로 답을 주는 인터랙티브 레시피 사이트가 대폭 개편되었습니다. 하드웨어와 병렬화 전략을 선택하면 바로 쓸 수 있는 vllm serve 명령어가 생성되고, NVIDIA와 AMD 간 원클릭 전환도 됩니다. HuggingFace URL에서 도메인만 recipes.vllm.ai로 바꾸면 해당 모델의 레시피로 바로 이동하는 것도 편리합니다. 아직 없는 모델이 많지만 에이전트 스킬로 벤치마크부터 PR 제출까지 기여할 수 있어서, 오픈소스 LLM 서빙에 관심 있다면 좋은 기여 기회이기도 합니다.

  • AI에 대한 저항이 커지고 있다

    AI 크롤러에 대한 풀뿌리 저항 움직임을 정리한 글입니다. Reddit의 r/PoisonFountain 커뮤니티는 크롤러에 하루 1TB의 오염 데이터를 먹이는 것을 목표로 활동 중이고, 겉보기엔 정상이지만 미묘한 오류가 포함된 코드를 대량 생성해 학습 데이터의 질을 떨어뜨리는 전략을 쓰고 있습니다. 배경에는 AI 크롤러들이 robots.txt를 무시하고 소규모 사이트에 DDoS 수준의 부하를 일으키는 현실이 있습니다. AI를 적극적으로 활용하는 입장에서도 데이터 수집의 윤리 문제는 결국 업계 전체가 풀어야 할 과제라는 점에서 읽어볼 만합니다. 긱뉴스도 AI크롤러가 너무 많이 방문하면서 CDN 적용 및 캐시 구조 개선 때문에 한참 고생했네요.

  • Google Cloud의 AI 에이전트 거버넌스 스택, "에이전트를 엔지니어 조직처럼 관리하라"

    Google Cloud가 Cloud Next 26에서 발표한 AI 에이전트 거버넌스 프레임워크입니다. 핵심 철학은 단순한데, 에이전트 집단을 엔지니어링 조직처럼 관리하라는 것입니다. 에이전트별 고유 암호화 ID 부여, 중앙 레지스트리, 자연어로 보안 정책을 작성하면 전체 에이전트에 즉시 적용되는 게이트웨이, 별도 LLM이 심판 역할을 맡아 추론 과정의 논리적 비약을 감지하는 이상 탐지까지 5계층으로 나뉩니다. 잘못 설정된 SaaS 도구는 데이터를 수동적으로 노출시키지만, 잘못 설정된 에이전트는 능동적으로 잘못된 행동을 수행한다는 경고가 인상적입니다.

  • Tim Cook의 완벽한 타이밍

    Tim Cook이 Apple CEO로 재직한 15년을 분석한 글입니다. 0에서 1을 만드는 창조자가 아니라, 이미 만들어진 체계를 확장하고 운영하는 데 강점을 보인 리더십 아래에서 Apple은 매출 303%, 이익 354%, 기업가치 1,251% 상승을 기록했습니다. "위대한 제품에 집중하라"는 Cook Doctrine이 핵심인데, 혁신적 신제품보다는 기존 제품 라인의 완성도를 극대화하고 서비스 매출을 키우는 방향이었습니다. 스타트업 창업자들 사이에서는 "비전의 CEO" vs "운영의 CEO" 논쟁이 늘 있지만, Cook의 사례는 후자의 가치를 숫자로 증명한 셈이라 한번 읽어볼 만합니다.

  • Anthropic - OpenClaw : 다시 사용 가능해짐

    Claude CLI를 자체 API 키로 쓸 수 있게 해주는 OpenClaw가 Anthropic의 공식 허가를 받고 다시 사용 가능해졌습니다. 이전에 차단 논란이 있었는데, Anthropic 담당자가 직접 허용을 통보한 것입니다. Anthropic API 키와 Claude CLI 재사용을 모두 지원하고, Claude 4.6 모델의 adaptive thinking 기본 적용, /fast 토글을 통한 service tier 전환 등 실용적인 기능이 갖춰져 있습니다. Claude Code를 자체 인프라에서 돌리고 싶었던 분들에게 반가운 소식입니다.

  • 작은 화면용 5x5 픽셀 폰트

    모든 글자를 5x5 픽셀 안에 넣은 초소형 고정폭 폰트입니다. 전체 폰트 데이터가 350바이트밖에 안 돼서 8비트 마이크로컨트롤러에도 올라가고, 128x64 OLED 같은 작은 화면에서 진가를 발휘합니다. 안티앨리어싱과 수 메가바이트 코드를 쓴 벡터 폰트보다 오히려 결과가 낫다는 비교가 재밌고, 3x5, 3x3, 심지어 2x2까지 극한 실험을 해본 과정도 읽는 맛이 있습니다. 임베디드나 하드웨어 프로젝트를 하시는 분이라면 바로 써볼 만합니다.

  • Google LiteRT-LM - 엣지 디바이스용 고성능 LLM 추론 프레임워크

    Google이 만든 엣지 디바이스용 LLM 추론 엔진으로, Android, iOS, 웹, 데스크톱, Raspberry Pi까지 한 프레임워크로 커버합니다. uv tool install litert-lm 한 줄이면 설치가 끝나고, Hugging Face에서 모델을 받아 바로 추론할 수 있습니다. GPU/NPU 하드웨어 가속, 멀티모달(이미지/오디오) 입력, Function Calling까지 지원하고, 실제로 Chrome, Chromebook Plus, Pixel Watch에 탑재되어 돌아가고 있습니다. 온디바이스 AI를 프로덕션에 넣고 싶은 분들에게 llama.cpp 외의 선택지로 눈여겨볼 만합니다.

  • 나는 클라우드를 만들고 있어요

    Tailscale 공동 창업자 David Crawshaw가 기존 클라우드의 근본적인 추상화가 잘못되었다고 주장하며 새 클라우드를 만들고 있다는 글입니다. VM이 CPU/메모리에 묶인 개별 인스턴스로 제공되는 구조, HDD 시대에 설계된 원격 블록 스토리지(SSD 시대에는 IOPS 오버헤드가 10배 이상), 비싼 egress 비용 등 구조적 문제를 짚습니다. EC2에서 200k IOPS를 구성하면 월 1만 달러인데 MacBook은 500k IOPS를 그냥 제공한다는 비교가 인상적입니다. AI 에이전트 시대에 실행 환경 수요가 폭발적으로 늘어날 것을 감안하면, 클라우드 추상화 자체를 다시 생각하려는 시도가 시의적절하게 느껴집니다. 전 Tailscale 을 너무 좋아해서 그런지, 그냥 응원 하고 싶네요.

  • 집에서 RAM 만들기 [비디오]

    가정용 장비로 DRAM 셀을 직접 만드는 과정을 담은 영상입니다. 실리콘 웨이퍼 절단부터 산화막 형성, 포토리소그래피, 인 도핑, 알루미늄 증착까지 반도체 공정을 단계별로 수행해서, 실제로 전하를 저장하고 읽어내는 RAM 동작을 확인합니다. 전하 유지 시간이 상용 DRAM의 64ms에는 못 미치는 2ms 수준이지만, 집에서 만든 소자가 실제로 동작한다는 것 자체가 대단합니다. 반도체 공정이 어떻게 돌아가는지 궁금했던 분이라면 이 영상 하나로 감을 잡을 수 있습니다.

  • Cherri - 애플 단축어를 코드로 작성하는 프로그래밍 언어

    Apple Siri 단축어를 텍스트 코드로 작성하면 실행 가능한 Shortcut 파일로 컴파일해주는 도메인 특화 언어입니다. 단축어 앱의 드래그앤드롭 UI가 복잡한 자동화를 만들 때 한계가 있다고 느껴본 분이라면 반가울 텐데, Go와 Ruby에서 영감을 받은 문법으로 타입 시스템, 함수 정의, 패키지 매니저까지 갖추고 있습니다. 기존 Shortcut을 --import 옵션으로 코드로 변환할 수도 있어서 마이그레이션도 가능합니다. VSCode 확장과 웹 Playground도 제공되니 Apple 자동화를 자주 쓰는 분들은 한번 시도해볼 만합니다.

  • Google Agents CLI — 코딩 에이전트를 에이전트 빌더로 만드는 메타 도구

    Google이 Cloud Next에서 공개한 도구로, Gemini CLI나 Claude Code 같은 코딩 에이전트에게 Google Cloud 기반 AI 에이전트를 설계하고 배포하는 전문 역량을 주입하는 메타 도구입니다. 에이전트 자체가 아니라 "에이전트를 만드는 에이전트"의 실력을 올리는 레이어인 셈입니다. 워크플로우 설계부터 평가, 배포, 관측성까지 7종의 스킬을 주입하고, 특정 코딩 에이전트에 종속되지 않아 Claude Code든 Codex든 어디서나 동작합니다. "무엇을 했는지"뿐 아니라 "왜 그렇게 결정했는지"를 함께 설명하도록 설계한 점이 이번 주 메인 주제인 의도 기록의 중요성과도 통합니다.

  • Linux를 위한 Windows 9x 서브시스템

    Windows 95/98 커널 안에서 최신 Linux 커널(6.19) 을 돌리는 실험적 프로젝트입니다. WSL의 이름을 뒤집어서 "Linux를 위한 Windows 9x 서브시스템"이라는 발상 자체가 재밌는데, 하드웨어 가상화 없이 486에서도 실행 가능합니다. Win9x의 인터럽트 테이블이 int 0x80을 처리할 만큼 길지 않아서 GPF 핸들러로 시스템콜을 우회하는 등 기술적 해킹이 볼 만합니다. 프로젝트 설명에 "AI 없이 자랑스럽게 작성됨" 이라고 적혀 있는 것도 이번 주 분위기와 묘하게 어울립니다.

  • 모든 공개 Notion 페이지는 모든 편집자들의 이메일 주소를 노출하고 있음

    공개된 Notion 페이지에서 인증 없이 API 한 번 호출하면 편집자 전원의 이메일 주소, 이름, 프로필 사진이 그대로 노출되는 문제입니다. 500명 규모 회사가 공개 페이지를 하나라도 공유하고 있으면 한 번의 요청으로 전 직원 이메일을 수집할 수 있고, rate limiting도 없습니다. 더 심각한 건 이 문제가 2022년에 신고된 이후 4년째 수정되지 않고 있다는 점입니다. 회사 위키나 채용 페이지를 Notion으로 공개하고 있다면 공유 설정을 한번 점검해볼 필요가 있습니다.

  • IPv6가 훌륭한 설계였던 세상 (2017)

    2017년 글이지만 지금 읽어도 통찰이 깊습니다. IPv6가 원래 꿈꿨던 세상은 브로드캐스트, ARP, DHCP, MAC 주소까지 모두 제거한 깔끔한 점대점 네트워크였는데, 현실에서는 IPv4와 기존 layer 2가 그대로 남으면서 그 꿈이 무너진 과정을 추적합니다. 비용 절감을 위해 도입된 버스 네트워크가 MAC 주소, 브리징, spanning tree 같은 복잡성을 끝없이 누적시킨 역사가 흥미롭습니다. 네트워크 기본기를 다시 짚고 싶은 분이라면 읽어볼 만한 글이고, "좋은 설계가 왜 현실에서 타협되는가"라는 질문은 소프트웨어 전반에도 적용되는 이야기입니다.

  • Codex, Browser use로 웹사이트 구현 및 검증 지원

    GPT-5.5 출시와 함께 Codex에 Browser Use 플러그인이 추가되었습니다. 코드를 빌드한 뒤 에이전트가 직접 브라우저를 띄워서 사용자가 클릭하듯 웹앱을 테스트하고, 화면을 vision으로 확인하면서 네트워크/콘솔 로그까지 체크합니다. 구현과 검증을 하나로 묶는 흐름인데, 이번 주 메인에서 다룬 "검증이 비싸진다"는 이야기의 실제 해법이 나오고 있는 셈입니다. Sheets, Slides, Docs, PDF 생성 옵션과 OS 전역 단축키 받아쓰기도 같이 추가되었습니다.

  • 크리에이티브 소프트웨어 업계가 Adobe에 전쟁을 선포함

    Adobe Creative Cloud에 대한 가격 전쟁이 본격화되고 있습니다. Maxon의 Autograph(기존 $1,795)와 Canva의 Cavalry가 같은 주에 무료 전환을 발표했고, Canva가 인수한 Affinity 3종(Illustrator/Photoshop/InDesign 대안)도 완전 무료가 되었습니다. DaVinci Resolve 21은 사진 편집 기능까지 추가하며 Lightroom 영역까지 넘보고 있고, Apple은 월 $12.99짜리 Creator Studio로 Adobe의 월 $69.99에 정면 도전합니다. 생성형 AI 도입과 구독제 전환 이후 쌓인 사용자 반발이 경쟁사들에게 기회가 되고 있는 모습입니다.

  • 다크 모드의 여섯 단계 (2024)

    다크 모드 구현을 메타 태그 한 줄부터 JavaScript 미디어 쿼리까지 단계별로 나눠 정리한 글입니다. <meta name="color-scheme"> 선언 하나만으로도 브라우저가 사용자 선호를 따르게 할 수 있다는 Level 1부터, light-dark() 함수, prefers-color-scheme 미디어 쿼리, Automatic/light/dark 3가지 선택지를 제공하는 전환기까지 점진적으로 확장됩니다. 최근 CSS만으로도 다크 모드 구현이 꽤 깔끔해졌는데, 프로젝트에 다크 모드를 넣으려던 분이라면 자기 상황에 맞는 단계를 골라서 적용할 수 있어 실용적입니다.

  • 과도한 편집: 모델이 필요 범위를 넘어서 코드를 수정하는 현상

    AI 코딩 모델이 버그를 고칠 때 필요한 최소 수정을 넘어서 코드를 과도하게 재작성하는 현상을 정량적으로 분석한 연구입니다. range(len(x)-1)range(len(x))로 바꾸면 되는 오프바이원 버그에서도 함수 전체를 다시 쓰고 검증 로직까지 추가하는 식입니다. 400개 문제를 프로그램적으로 손상시켜 테스트한 결과, Claude Opus 4.6은 정확성과 최소 수정성 조합이 강했고 GPT-5.4는 과도한 편집이 두드러졌습니다. 이번 주 메인에서 다룬 Kernighan의 법칙("디버깅은 코드 작성보다 두 배 어렵다")이 AI가 만든 거대한 diff에서 더 크게 체감되는 이유를 데이터로 보여주는 글입니다.

  • Qwen3.6-27B: 270억 dense 모델에서 플래그십급 코딩 성능

    Alibaba의 Qwen3.6-27B가 270억 파라미터 dense 모델로 공개되었습니다. 주목할 점은 파라미터 수가 최대 15배 큰 모델들을 agentic coding 벤치마크에서 능가했다는 것인데, SWE-bench Verified 77.2로 이전 세대 플래그십인 397B MoE 모델까지 넘어섰습니다. MoE가 아닌 dense 아키텍처라 배포가 단순하고, thinking/non-thinking 모드 전환과 이미지/비디오 처리까지 하나의 체크포인트에서 지원합니다. 로컬에서 돌릴 수 있는 크기에서 이 정도 코딩 성능이 나온다는 건, 오픈소스 모델의 실용성이 빠르게 올라가고 있다는 신호입니다.

  • '제미나이 인 크롬'으로 더욱 스마트하고 편리해진 크롬이 한국에 출시됩니다

    구글이 '제미나이 인 크롬' 을 한국에 공식 출시했습니다. 크롬 사이드 패널에서 탭을 떠나지 않고 현재 페이지를 요약하거나 질문할 수 있고, 여러 열린 탭의 정보를 동시에 분석해서 비교표를 만들어주는 기능도 있습니다. 지메일, 캘린더, 지도, 유튜브와 통합되어 브라우저 안에서 후속 작업까지 바로 처리할 수 있는 구조입니다. 나노 바나나 2 모델이 브라우저에 내장되어 이미지 변환도 로컬에서 가능합니다. 다만 댓글을 보면 Mac에서 아직 안 보인다는 분도 있어서, 순차 배포 중인 것으로 보입니다.

  • Claude를 해지한 이유: 토큰 문제, 품질 저하, 부실한 지원

    Claude Code Pro 사용자가 토큰 한도 문제, 품질 저하, 지원 부실을 이유로 구독을 해지한 경험기입니다. 10시간 쉬고 돌아와서 짧은 질문 두 개만 보냈는데 사용량이 100%까지 치솟은 사례, 대화 캐시가 사라져 코드베이스를 반복해서 다시 읽는 비용이 발생하는 문제, 지원 문의에 자동화된 답변만 오고 채널이 닫히는 경험 등이 구체적으로 적혀 있습니다. 이번 주 다른 글에서 다룬 토큰 효율 설정 팁이나 캐싱 관련 논의와 함께 읽으면 맥락이 잡히고, AI 코딩 도구의 비용 예측 가능성이 실무에서 얼마나 중요한지를 보여주는 사례입니다.

  • DeepSeek v4 : 100만 토큰 컨텍스트를 지원하는 고효율 대규모 언어 모델

    DeepSeek이 100만 토큰 컨텍스트를 지원하는 V4 시리즈를 공개했습니다. Pro(1.6T 파라미터)와 Flash(284B) 두 버전인데, 하이브리드 어텐션 아키텍처 덕분에 100만 토큰 기준으로 이전 세대 대비 추론 연산량 27%, KV 캐시 10%만 사용합니다. Pro-Max 모드에서는 LiveCodeBench 93.5, SWE Verified 80.6으로 오픈소스 코딩 벤치마크 최고 성능을 기록했습니다. Non-Think/Think High/Think Max 세 가지 추론 모드를 지원해 용도에 따라 속도와 정확도를 조절할 수 있는 것도 실용적입니다.

  • Anthropic, 신규 Pro($20/월) 사용자에게 Claude Code 제공 중단?

    Anthropic이 월 $20 Pro 플랜 신규 가입자에게서 Claude Code 접근을 제외한 것으로 보인다는 글입니다. 지원 문서에서 "Pro or Max"가 "Max"로 바뀐 정황이 확인되었고, Anthropic은 신규 가입자 약 2% 대상의 소규모 테스트라고 해명했지만 커뮤니티 반발이 컸습니다. 댓글에서는 "소비자 기만", "독점이니 슬슬 시작하는군요" 같은 반응이 이어졌고, 이후 기존대로 롤백된 것으로 보입니다. 앞서 다룬 Claude 해지 경험기와 함께 읽으면, AI 코딩 도구의 가격 정책 불확실성이 사용자들에게 얼마나 민감한 이슈인지 잘 드러납니다.

  • AI 크롤러 시대, 로그 파일 분석으로 검색 가시성의 사각지대를 읽는 법

    AI 검색 시스템(ChatGPT, Claude, Perplexity 등)이 내 사이트를 어떻게 크롤링하는지 확인할 공식 도구가 거의 없는 상황에서, 서버 로그 파일이 사실상 유일한 분석 수단이라는 글입니다. AI 크롤러를 학습용(GPTBot, ClaudeBot)과 검색·응답용(ChatGPT-User, PerplexityBot)으로 나눠서 행동 패턴을 분석하는 방법을 구체적으로 다룹니다. 크롤러가 홈페이지에만 머물고 깊은 페이지까지 도달하지 못하면 AI 응답에 내 콘텐츠가 반영되지 않을 수 있다는 점, JS 기반 내비게이션이 크롤링 범위를 크게 줄인다는 점 등 SEO를 넘어 AI 가시성을 고민해야 하는 시대가 왔습니다.

  • Anthropic의 Claude Code 장애 포스트모템: 2026년 4월 23일

    지난 한 달간 Claude Code 품질 저하 보고가 이어진 원인을 Anthropic이 공식 포스트모템으로 밝혔습니다. 추론 노력 기본값을 medium으로 낮춘 것, 캐싱 버그로 이전 추론 기록이 반복 삭제된 것, 시스템 프롬프트에 과도한 간결화 지시를 넣은 것, 이 세 가지가 서로 다른 시점에 겹치면서 전반적인 품질 저하처럼 보였습니다. "의도적 저하는 없었다"고 밝히고 있지만, 내부 테스트 환경과 실제 사용자 환경의 괴리가 문제 발견을 늦췄다는 점은 솔직한 반성입니다. 재발 방지책으로 내부 직원이 공개 빌드를 의무 사용하도록 한 것이 인상적입니다. (물론 지금까지 안했다고? 라는 생각이 들기도 합니다만..)

  • Flipbook - 모델에서 직접 라이브 스트리밍되는 웹사이트

    HTML도 코드도 없이 모든 페이지를 이미지 모델이 실시간으로 생성하는 실험적 웹 브라우저입니다. 텍스트까지 픽셀로 직접 렌더링하고, 이미지 안의 대상을 클릭하면 더 깊은 탐색 화면이 새로 생성됩니다. 현재는 텍스트가 불완전하거나 위치가 어긋나는 경우도 있지만, "웹을 UI 요소의 집합이 아니라 픽셀 중심 인터페이스로 다시 구성한다"는 발상 자체가 흥미롭습니다. 실용성보다는 이미지/비디오 모델이 충분히 좋아지면 컴퓨팅 인터페이스가 어떻게 바뀔 수 있는가를 보여주는 프로토타입으로 한번 들어가서 놀아볼 만합니다.

  • ChatGPT Images 2.0 공개

    OpenAI가 ChatGPT Images 2.0을 공개했습니다. 최초로 사고(thinking) 기능을 갖춘 이미지 모델이라는 점이 특징인데, 웹 검색 결과를 반영하고 다중 이미지를 동시에 생성하며 출력물을 스스로 검증합니다. 한국어, 일본어, 중국어 등 비라틴 문자 렌더링이 크게 좋아져서 다국어 포스터나 다이어그램 제작에 실용적으로 쓸 수 있게 되었고, 최대 2K 해상도에 3:1부터 1:3까지 유연한 종횡비를 지원합니다. 소개글 자체를 텍스트 없이 생성된 이미지로만 채운 것도 자신감의 표현같습니다.

    다만 실제로 API에서 써보니, 1.5에서 가장 좋았던 투명 배경 기능을 제대로 지원안하는게 흠이네요.

  • 2027년부터 EU에서 판매되는 모든 휴대전화에 교체 가능한 배터리 의무화

    2027년 2월부터 EU에서 판매되는 모든 스마트폰과 태블릿은 사용자가 직접 배터리를 교체할 수 있어야 합니다. 전문 도구나 외부 도움 없이 분리 가능해야 하고, 특수 도구가 필요하면 기기 구매 시 무료 제공해야 합니다. 교체용 배터리도 마지막 판매 후 최소 5년간 공급 의무가 있습니다. USB-C 충전 의무화에 이어 또 한번 EU가 업계 전체의 하드웨어 설계를 바꿀 수 있는 규제인데, Apple과 Samsung이 어떤 디자인으로 대응할지가 관전 포인트입니다.

  • 딥러닝에 대한 과학적 이론이 나올 것이다.

    딥러닝이 왜 작동하는지에 대한 과학적 이론이 실제로 형성되기 시작했다는 논문입니다. 학습 과정의 역학을 "learning mechanics" 라는 이름으로 제안하면서, 해석 가능한 이상화 설정, 스케일링 법칙, 보편적 행동 패턴 등 다섯 가지 연구 흐름을 근거로 제시합니다. 신경망이 초인간적 성능을 보이면서도 왜 그런지 설명하는 통합 이론은 없었는데, 이 논문은 그 빈자리를 반증 가능한 정량적 예측으로 채우려는 시도입니다. AI를 도구로만 쓰더라도 "이게 왜 되는 거지?"라는 근본적 호기심이 있는 분이라면 읽어볼 만합니다.

  • GPT-5.5 공개

    OpenAI가 GPT-5.5를 공개했습니다. 복잡한 작업을 스스로 계획하고 도구를 조합해 끝까지 수행하는 에이전트형 모델로, Terminal-Bench 2.0 82.7%, SWE-Bench Pro 58.6%를 기록하며 코딩 벤치마크에서 강한 성능을 보입니다. GPT-5.4와 같은 per-token latency를 유지하면서 같은 작업을 더 적은 토큰으로 끝내는 효율 개선이 눈에 띕니다. 코딩뿐 아니라 문서/스프레드시트 생성, 화면 조작 기반 computer use까지 지원 범위가 넓어졌고, Images 2.0과 Browser Use가 같은 날 함께 나온 것을 보면 OpenAI가 에이전트 플랫폼으로의 전환에 속도를 내고 있는 것 같네요. 5.5에 대한 평은 엇갈리는 듯 합니다. 실사용에서는 좋아졌다고 하다가도, 벤치에서는 들쭉 날쭉하다는 평가도 있네요.

  • 나는 왜 쓰는가 (1946)

    조지 오웰이 1946년에 쓴 에세이 "Why I Write" 입니다. 글을 쓰게 만드는 힘을 순전한 이기심, 미학적 열정, 역사적 충동, 정치적 목적 네 가지로 나누고, 정치적 글쓰기를 예술로 만들려 했던 자신의 경험을 솔직하게 풀어냅니다. AI가 글을 대신 써주는 시대에 "사람은 왜 쓰는가"라는 질문이 다시 의미 있게 다가옵니다. 이번 주 메인에서 다룬 문서화와 의도 기록의 중요성과도 연결되는데, 결국 왜 그렇게 했는지를 남기는 일은 코드든 산문이든 사람만이 할 수 있는 행위라는 점에서 그렇습니다.


✓ 사내 커뮤니케이션 도구에 GeekNews Bot을 추가해서 멤버들과 함께 새 글을 받아보세요
ㅤ→ Slack봇, 잔디봇, Teams봇, Dooray!봇, Discord봇, 구글 챗 봇, Swit 봇
긱뉴스를 트위터에서 구독 하거나 RSS로도 구독 가능 합니다
✓ 주위분들께 긱뉴스 위클리 - https://news.hada.io/weekly 뉴스레터를 추천해 주세요.