GitHub Copilot 코딩 에이전트, 공개 프리뷰 출시
(github.blog)- GitHub가 Copilot 코딩 에이전트를 Copilot Pro+ 및 Enterprise 사용자에게 프리뷰로 공개함
- 개발자들이 반복적이고 기술 부채가 쌓인 작업을 Copilot에게 위임해 더 창의적이고 중요한 일에 집중할 수 있게 해줌
- 이슈를 AI에게 할당하면, 코드 수정, 테스트 실행, PR 생성까지 자동 수행
- Copilot이 작업을 완료하면 검토를 요청하며, 개발자는 추가 변경사항을 댓글로 요청하거나 브랜치에서 직접 작업을 이어갈 수 있음
- 작업은 GitHub Actions 기반의 클라우드 개발환경에서 이루어지며, 테스트와 린터 통과도 자체적으로 검증함
- 사용자는 PR에서 코멘트로 Copilot에게 수정 요청하거나 로컬 브랜치로 가져와 협업 가능
- 주로 테스트가 잘 갖춰진 코드베이스에서 기능 추가, 버그 수정, 리팩토링 등 중저난도의 업무에 강점을 보임
GitHub Copilot coding agent in public preview
코드 에이전트를 통해 기술 부채를 덜고 창의적 업무에 집중 가능
- GitHub는 Copilot 코딩 에이전트를 퍼블릭 프리뷰로 공개해, 반복적이거나 단순한 이슈를 Copilot에게 위임할 수 있도록 함
- 개발자는 이슈를 일반 개발자처럼 Copilot에게 할당할 수 있으며, GitHub 웹사이트, 모바일 앱, CLI에서 지원됨
- Copilot은 자체 클라우드 개발환경에서 리포지토리를 분석하고, 수정사항을 적용하며, 테스트와 린트 검증까지 수행 후 PR을 생성함
- 완료 후에는 사용자에게 리뷰를 요청하며, PR 내 코멘트로 피드백을 주거나 로컬에서 직접 브랜치를 이어 작업할 수도 있음
어떤 작업에 적합한가
- Copilot은 기능 추가, 버그 수정, 테스트 확장, 리팩토링, 문서화 개선 등 저~중간 수준의 복잡도 작업에 강점을 가짐
- 테스트가 잘 갖춰진 코드베이스에서 효과적으로 작동하며, 동시에 여러 개의 이슈를 할당하는 것도 가능함
사용 조건 및 요금
- 해당 기능은 Copilot Pro+ 또는 Copilot Enterprise 요금제에서 사용 가능함
- Enterprise의 경우, 관리자가 ‘Copilot 코딩 에이전트’ 정책을 사전 활성화해야 사용 가능함
- 에이전트의 사용은 GitHub Actions 시간과 Copilot Premium 요청을 소모함
- 특히, 2025년 6월 4일부터는 모델 요청 1건당 Premium 요청 1회가 과금됨
플랫폼 지원 및 시작 방법
- 이 기능은 현재 GitHub Mobile(iOS/Android) 및 GitHub CLI 사용자에게 점진적으로 배포 중
- Copilot 코딩 에이전트 문서에서 시작 방법 및 팁 확인 가능
- 의견이나 질문은 커뮤니티 토론에서 공유 가능
Hacker News 의견
- Copilot은 잘 테스트된 코드베이스에서 기능 추가, 버그 수정, 테스트 확장, 리팩토링, 문서 개선 같은 저~중간 난이도 작업에 효과적이라는 인상 받음. 하지만 인간에게 중요한 부분은 AI 사용 시 경계 유지라는 점임. 테스트가 AI로만 만들어진다면 실제 제대로 작동하지 않을 수 있다는 걱정 있음. Microsoft 내부에서 얼마나 성공적으로 사용 중인지 구체적인 수치를 듣고 싶음. Microsoft가 실제로 자사 제품을 실사용(도그푸딩)하는 것으로 유명하지만, 엄청난 마케팅과 진짜 유용성을 구분하긴 매우 어렵다는 느낌 가짐
- GitHub와 Microsoft 곳곳에서 Copilot coding agent를 내부적으로 거의 3개월 정도 실제로 사용 중임. 이런 경험을 통해 많은 피드백과 버그 개선이 이뤄져 오늘 에이전트 출시 준비를 마침. 지금까지 약 400명의 GitHub 직원이 300개 이상의 리포지토리에서 agent를 사용했고, 1,000개 가까운 Copilot이 기여한 PR이 머지됨. agent가 개발되는 리포지토리에서는 Copilot agent가 5번째로 많은 기여자임. 즉 Copilot coding agent를 써서 Copilot coding agent를 만들고 있는 셈임. (나는 Copilot coding agent의 GitHub 내 프로덕트 리드임)
- Microsoft 내에서는 매니지먼트 주도의 강압적 배포라는 인상 받음. Azure 팀의 친구 얘기로는 내부 AI 코딩 어시스턴트를 설치 거부했다가 PIP(성과 개선 프로그램)에 올라갈 뻔한 사례 있음. 각 관리자가 'AI 쓰는 개발자 수'를 OKR로 잡고 있고, 많은 개발자들은 설치만 해놓고 거의 사용 안 하는 경향 있음. 특히 C#과 PowerShell 지원이 많이 부족해서 실제 쓸모가 제한적이라는 아쉬움 있음
- 실제로 마이크로소프트가 AI로 코드를 생성한 비율 등 수치를 발표한 바 있음. 30%의 코드가 AI로 작성되고 있다고 알려짐
- 마이크로소프트가 도그푸딩으로 유명했다는 말은 15년 전까지는 맞았지만, 지금은 전혀 아님
- Copilot을 사용하면 프라이빗 리포지토리의 코드가 학습에 쓰일 수 있다는 점이 매우 큰 문제라고 경고하고 싶음. 프로, 프로+ 요금제가 있지만, FAQ에는 Business나 Enterprise 데이터는 학습에 쓰지 않는다고만 써놨기 때문에, 개인 유료 요금제의 데이터는 여전히 모델 학습에 사용된다는 의미로 받아들임
- 예전에는 그랬을 수 있지만, 지금은 달라짐. 깃허브 공식 문서에서 개인 플랜 정책 확인할 수 있음
- 윈도우 환경에서 코딩 중이라면 이미 화면이 몇 초마다 자동으로 캡처되고 있고, OCR로 내 화면의 모든 문자가 분석되고 있음. 이런 걸 모르면 놀랄 소식임
- Gemini 2.5 pro와 cline으로 그린필드 프로젝트에서 vibe coding 실험을 해봄. 상당히 인상적이고 기존 LLM 챗 인터페이스보다 생산성에 큰 도움 받음. 그러나 아키텍처 가이드가 충분히 강하지 않으면 LLM이 잘못된 추상화와 기술 부채를 쌓는 경향이 있음(예: 구조 파괴). 코드 품질이나 더 나은 방법에 대한 자기성찰은 충분하지 않은 편임. 내가 명확히 지적해서 프롬프트 하면 바로 개선한다는 점이 장점. 그리고 LLM 토큰 비용이 하루 저녁에 $15나 소비된 점은 놀라움. 평소 한 달 평균 $20 정도였는데 하루 만에 이렇게 나온 건 처음임
- LLM 토큰 하루에 $15 썼다는 건 버그가 아니라 특징임. 앞으로 "AWS 요금 폭탄" 현상이 LLM에도 나타날 거라고 생각함
- Aider라는 툴을 사용해서 /add, /drop, /clear로 컨텍스트를 적극적으로 관리해보는 것도 추천함
- Cline을 가격 민감하게 쓸 거라면 컨텍스트를 수동으로 관리해야 할 필요성 느낌. 나는 Windsurf(여전히 Gemini 2.5 pro 사용)를 대신 쓰고 있음. 컨텍스트 관리가 훨씬 간편함
- 그린필드 프로젝트에서는 AI 활용이 불편함. 선택지가 너무 많아 AI가 방식들을 오락가락함. 브라운필드(기존 코드베이스)에서는 레퍼런스 파일을 제공해 자연스럽게 패턴 학습시킬 수 있어, 훨씬 쉽게 좋은 결과 도출 가능함
- LLM의 아키텍처 오염 방지에 관심 있음. 다음 단계로 구현체가 설계 정의에 맞는지 확인해주는 (AI 기반) 린터가 등장할 것이라는 기대 있음
- 기능 추가보다 속도 최적화가 먼저라고 봄. Copilot의 오토컴플리트는 빠르지만, 100줄 파일 편집에 몇 분씩 걸릴 때도 있어서 비생산적 경험 느낌. 100%에 가까운 적중률이 있다면 이해하지만, 느릿한 속도에 왔다갔다 하는 건 힘듦. 차라리 새 탭에 Claude나 ChatGPT로 질문-코드 복붙이 더 빠름. Copilot 구독 취소했고 앞으로 자동완성/간단 작업엔 로컬 모델로 갈아탈 예정임
- 내 경험은 정반대임. 수백 줄짜리 파일 편집도 몇 초면 완료됨. 예전엔 느렸던 듯하지만 최근엔 병목 현상이 사라짐. 라이브러리 와이파이로 Copilot 써도 상당히 쾌적함
- 몇 분이 걸린다면 심각한 문제가 있다고 생각함. 대부분 모델은 수 초 내로 처리함
- VS Code에서 ChatGPT와 Copilot을 번갈아 씀. Objective-C의 문법 파악이 훨씬 쉬워지고 라이브러리 지원은 부족하지만 3rd party 라이브러리는 내가 충분히 도전 안 한 측면도 있다고 생각함. 문법, 흐름 오류는 단번에 알아볼 수 있어 짧게 수정 후 거의 코드를 바로 사용함. 월 $10 가격에 이 정도면 미래가 긍정적으로 느껴짐. 업데이트해야 할 iOS 앱이 매우 많은데 모두 생산성 앱이고 직접 쓰고 팔고 있음. 그래서 이득이 두 배임
- Copilot을 꽤 많이 써봤음. 인상적이지만 무섭기도 함. 중요한 문제는 작은 리포에서 가져온 임의의 의존성을 무분별하게 추천하고, 그 중 많은 경우 주요 프로젝트에는 부적합하다는 점임. 즉, 사용자는 주의가 필요함
- 여러 AI에서 유사 패턴을 봤음. 웹에서 읽어온 데이터에 지나치게 신뢰를 줌. 예시로 피싱 사기 검증 요청 시, AI는 내용 요약만 해주고 신뢰할 만한 분석이 아님. 또한 별 2개짜리 무명 중국 리포를 업계 표준처럼 권장하는 경우도 경험함. README에 써 있다는 이유뿐임. 관련없는 얘기이긴 하지만 "Strobe" 암호화 프로토콜을 추천하며 strobe.cool을 안내한 적도 있는데, 그 사이트 자체가 환각을 유도하는 것을 다루는 곳임
- 이 현상에 대해 언급해줘서 고마움. 테스트 중에 이런 동작은 경험하지 못해서 좀 더 깊이 알아보고 싶음. 혹시 이메일로 공유할 수 있으면 좋겠음(github.com의 내 HN 닉네임). 나는 Copilot coding agent의 제품팀에서 일함
- PR 실행이 프라이빗 리포에서는 더 신뢰성 높은 컨텍스트에서 동작하는데, 이런 상황에서 위와 같은 의존성 추천 문제는 좀 걱정스러움
- "Copilot은 저~중복잡도의 작업에 강함"이라는 말에 좋은 인상 받음. 하지만 "잘 테스트된 코드베이스" 한정이라는 점에서는 기대감이 사라짐
- 다른 댓글처럼 coding agent는 테스트 커버리지 개선에 탁월함. 그리고 한 단계 더 들어가면 에이전트형 코딩 도구들은 이미 좋은 테스트 커버리지가 있으면 훨씬 큰 효과 얻음. 테스트는 agent(에이전트)를 제한(박스 인)하고 스스로 작업 검증을 반복할 기회 제공함. 이런 도구엔 꼭 필요는 아니지만, 있으면 더 나은 성과 나옴(나는 Copilot coding agent 팀에서 일함)
- Copilot에게 모든 테스트를 작성하게 하면 금방 잘 테스트된 코드베이스가 형성됨
- 내 경험상, 테스트가 없어도 특히 그린필드 프로젝트에서는 꽤 잘 동작함. 다만 이미 테스트가 있을 때의 업데이트/패치 효과가 확실히 더 좋음
- "기술 부채에 허우적대나?"라는 광고 문구에, 그냥 포기하고 침몰하라며 농담 섞어 반응함. Github Copilot Coding Agent로 기술 부채가 더 많아지고, 누가 책임질지 모르는 새로운 기술 부채가 쌓이고, 동료들도 곧 같은 상황으로 따라올 거라고 재치있게 말함
- 내 친구가 GitHub에서 관련 프로젝트에 참여 중인데, 며칠째 이 소식만 들었음. 월요일 키노트 꼭 봐야 한다고 반복해서 귀에 못 박힘. 세 번째 인증 타임아웃 후 스트리밍 포기했는데, 이 주제인 걸 알았으면 한 번 더 시도했을 것 같음
- 어떤 키노트인지 구체적으로 궁금함. 지금까지는 검색에도 잘 안 나옴
- 한 가지 조언하자면, 그냥 유튜브로 가서 MS 회원가입 절차 건너뛰는 것이 좋음
- 현업 코더들의 얘기는 내부 마케팅이 심하게 들어갔기 때문에 늘 조심스럽게 듣는 편임. Cursor 같은 경쟁작을 압도해주길 바라고, 실황을 꼭 볼 생각임
- LLM 초기에 github actions와 issues workflow로 agent 직접 만들어서 썼음. 기능 제한적이었지만, 버그 지정만 하면 자동으로 동작 실행, 아키텍처/편집 과제 처리, 변경사항 검증, 마지막엔 PR 전송까지 했음. 이제 공식 도구로 유사한 걸 쓸 수 있어 기대감 있음(내 작업 샘플: chota)