평생 코딩을 해왔지만 손목 부상으로 타이핑이 거의 불가능해진 이후, LLM과 AI 자동완성, 에이전트 기반 개발 덕분에 다시 고품질 코드를 낼 수 있게 되었음
AI의 환각(hallucination) 도 오히려 프롬프트를 다듬고 의도를 명확히 하는 데 도움이 됨
접근성 측면에서 AI는 나에게 필수적인 도구이며, “좋음이 나쁨을 상쇄하느냐”보다 생태계에 통합적으로 받아들이는 태도가 중요하다고 생각함
네 말처럼 AI를 합리적으로 쓰는 사람도 있지만, 모든 사용자가 그렇다고 가정하는 건 위험함
일부 프로젝트는 저품질 PR이 넘쳐나고, 기여자들이 단순히 GitHub 프로필을 채우려는 경우도 많음
결국 중요한 건 “선의(good faith)”로 기여하는가의 문제이며, 프로젝트는 그 허용 범위를 명확히 해야 함
나도 비슷한 접근을 함. AI에게 어려운 문제를 맡기기보다, 이미 내가 구현하려던 기술적 해법을 주고 코드를 생성하게 함
이렇게 하면 리뷰 피로도가 줄고, 예상과 다른 부분만 집중적으로 검토할 수 있음
나도 손목 통증이 있어 Whisper + LLM 조합으로 음성 입력과 정리를 함. 이메일, 문서 작성, 영수증 분류까지 자동화되어 건강에도 도움이 됨
이제는 이런 기능을 막는 회사에서는 일하고 싶지 않을 정도임
나도 RSI가 있어 AI 자동완성이 큰 도움이 되었음. 다만 에이전트형 AI는 실시간 C++/Rust 환경에서는 별로 유용하지 않음
접근성 측면은 매우 중요하지만, 저작권과 책임 문제는 여전히 복잡함
코드에 서명하고 자신의 전문성과 평판을 걸 수 있다면, AI는 단순한 고급 자동완성 도구일 뿐 “no AI” 규칙의 예외로 봐야 함
PR(풀리퀘스트) 리뷰는 결국 신뢰의 문제라고 생각함. 제출자가 최선을 다했다고 믿는 것임
AI 사용 여부보다, 그것을 책임감 있게 사용하는가가 핵심임
물론 악의적인 행위자도 존재함. XZ 공격처럼 지속적 위협(APT) 이 오픈소스에도 현실임
여러 가짜 계정이 하나의 공격자일 수도 있고, LLM이 만든 코드는 LLM이 보기엔 괜찮아 보이기 때문에 검증이 더 어려움
결국 PR을 평가하는 게 만드는 것보다 더 어렵게 된 상황임
하지만 나는 여전히 모든 코드를 잠재적 트로이 목마로 보고 검증해야 한다고 생각함
리뷰 과정이 인간이든 AI든 오류를 잡아낼 만큼 견고해야 함
AI 기여의 품질 논쟁은 이상함. 품질은 언제나 제출자의 책임임
AI를 썼다고 해서 면책이 되는 건 아니며, 오히려 AI 사용 제한 정책이 선의의 기여자만 해칠 수 있음
문제는 LLM 코드가 겉보기엔 좋아 보여도 실제로는 이해 없이 구현된 코드일 수 있다는 점임
중요한 건 도구가 아니라, 기여자가 리뷰에서 자신의 코드를 설명하고 방어할 수 있는가임
나는 AI로 300커밋짜리 포크를 유지하지만 모든 라인을 검토하고 설명할 수 있음
결국 참여의 질이 핵심이지, 도구의 종류가 아님
진짜 불변 조건은 책임감임. 패치를 제출했다면 그 설계와 유지보수까지 책임져야 함
하지만 AI는 사람들에게 그 책임을 회피하게 만들 위험이 있음
장기적으로 AI가 발전하면 인간과 AI의 산출물을 구분하기 어려워질 것 같음
결국 “충분히 좋은” 수준이 되면 인간이 만든 것처럼 보일 텐데, 그때는 어떤 일이 벌어질까 궁금함
완벽히 막을 수는 없지만, 정책을 세워두는 것이 아무것도 안 하는 것보다 낫다고 생각함
지금은 대부분의 AI PR이 저품질이지만, 품질이 높아져도 법적·이념적 이유로 거부할 수는 있음
AI 기여는 결국 개인의 확장으로 봐야 함. 계정이 실제 사람에게 속하고, 그 평판이 걸려 있어야 함
갑자기 방대한 코드가 올라오면 AI 사용을 의심할 수 있음. 중요한 건 AI 사용 여부가 아니라 문제를 이해하고 있는가임
AI는 여전히 토큰 단위 예측에 머물러 있어서 인간이 설계한 코드와는 구별됨
지나치게 세분화된 추상화나 불필요한 리팩터링이 흔함
인간이 AI를 도구로 쓰는 건 괜찮지만, AI가 인간을 대체하는 수준은 아직 멀었다고 봄
다만 vibecoding 남용은 리뷰와 유지보수 비용을 급격히 늘리고 있음
결국 올바르게 사용하는 사람의 코드는 인간 코드와 구분되지 않음. 문제는 도구가 아니라 사용법임
“작동하면 그걸로 충분함”이라는 입장임
코드가 기능·문서·테스트·정확성 기준을 충족한다면 AI가 썼든 사람이 썼든 상관없음
중요한 건 “작동의 정의”를 명확히 하고, 유능한 리뷰 체계를 갖추는 것임
AI가 수천 줄의 코드를 한 번에 생성해 PR을 올릴 수 있지만, 결국 리뷰 가능한 크기로 제한해야 함
AI가 테스트를 통과하더라도 작성자가 내용을 이해하지 못한다면 위험함 작업 범위 제한과 이전 수작업 기여 이력이 필요함
Debian의 정책은 단순함 — “누구도 상처받지 않게 하자”는 것임. 좋은 원칙임
Debian이 다른 사람의 코드를 자기 것처럼 제출하는 걸 금지하는 규칙이 있느냐는 질문이 있었음
사실상 저작권 침해로 불법이기 때문에 명시되지 않아도 암묵적으로 존재함
LLM은 사람이 아니지만, 그 코드의 저작권은 여전히 불분명함
웹앱이나 모바일앱의 vibecoding은 상관없지만, 커널·컴파일러·운영체제 같은 핵심 인프라 소프트웨어에 AI를 쓰는 건 위험함
이런 영역에서는 Ada/SPARK 같은 형식 검증 언어가 필요함
언젠가 AI가 만든 제동 시스템을 단 자동차를 타게 될까 두렵다고 느낌
동의함. 핵심 시스템에는 세심한 주의가 필요하고, LLM은 주의와 저작권 리스크 모두 부족함
사실 자동차 업계는 이미 AI 이전부터 자동 생성 코드가 많았다고 들음
“YOLO식 코드 제출”보다 “AI를 썼지만 최대한 검증한 코드”가 훨씬 더 받아들여질 만함
Hacker News 의견들
평생 코딩을 해왔지만 손목 부상으로 타이핑이 거의 불가능해진 이후, LLM과 AI 자동완성, 에이전트 기반 개발 덕분에 다시 고품질 코드를 낼 수 있게 되었음
AI의 환각(hallucination) 도 오히려 프롬프트를 다듬고 의도를 명확히 하는 데 도움이 됨
접근성 측면에서 AI는 나에게 필수적인 도구이며, “좋음이 나쁨을 상쇄하느냐”보다 생태계에 통합적으로 받아들이는 태도가 중요하다고 생각함
일부 프로젝트는 저품질 PR이 넘쳐나고, 기여자들이 단순히 GitHub 프로필을 채우려는 경우도 많음
결국 중요한 건 “선의(good faith)”로 기여하는가의 문제이며, 프로젝트는 그 허용 범위를 명확히 해야 함
이렇게 하면 리뷰 피로도가 줄고, 예상과 다른 부분만 집중적으로 검토할 수 있음
이제는 이런 기능을 막는 회사에서는 일하고 싶지 않을 정도임
접근성 측면은 매우 중요하지만, 저작권과 책임 문제는 여전히 복잡함
PR(풀리퀘스트) 리뷰는 결국 신뢰의 문제라고 생각함. 제출자가 최선을 다했다고 믿는 것임
AI 사용 여부보다, 그것을 책임감 있게 사용하는가가 핵심임
여러 가짜 계정이 하나의 공격자일 수도 있고, LLM이 만든 코드는 LLM이 보기엔 괜찮아 보이기 때문에 검증이 더 어려움
결국 PR을 평가하는 게 만드는 것보다 더 어렵게 된 상황임
AI 기여의 품질 논쟁은 이상함. 품질은 언제나 제출자의 책임임
AI를 썼다고 해서 면책이 되는 건 아니며, 오히려 AI 사용 제한 정책이 선의의 기여자만 해칠 수 있음
나는 AI로 300커밋짜리 포크를 유지하지만 모든 라인을 검토하고 설명할 수 있음
결국 참여의 질이 핵심이지, 도구의 종류가 아님
장기적으로 AI가 발전하면 인간과 AI의 산출물을 구분하기 어려워질 것 같음
결국 “충분히 좋은” 수준이 되면 인간이 만든 것처럼 보일 텐데, 그때는 어떤 일이 벌어질까 궁금함
지금은 대부분의 AI PR이 저품질이지만, 품질이 높아져도 법적·이념적 이유로 거부할 수는 있음
지나치게 세분화된 추상화나 불필요한 리팩터링이 흔함
인간이 AI를 도구로 쓰는 건 괜찮지만, AI가 인간을 대체하는 수준은 아직 멀었다고 봄
다만 vibecoding 남용은 리뷰와 유지보수 비용을 급격히 늘리고 있음
“작동하면 그걸로 충분함”이라는 입장임
코드가 기능·문서·테스트·정확성 기준을 충족한다면 AI가 썼든 사람이 썼든 상관없음
중요한 건 “작동의 정의”를 명확히 하고, 유능한 리뷰 체계를 갖추는 것임
AI가 수천 줄의 코드를 한 번에 생성해 PR을 올릴 수 있지만, 결국 리뷰 가능한 크기로 제한해야 함
AI가 테스트를 통과하더라도 작성자가 내용을 이해하지 못한다면 위험함
작업 범위 제한과 이전 수작업 기여 이력이 필요함
Debian의 정책은 단순함 — “누구도 상처받지 않게 하자”는 것임. 좋은 원칙임
Debian이 다른 사람의 코드를 자기 것처럼 제출하는 걸 금지하는 규칙이 있느냐는 질문이 있었음
사실상 저작권 침해로 불법이기 때문에 명시되지 않아도 암묵적으로 존재함
LLM은 사람이 아니지만, 그 코드의 저작권은 여전히 불분명함
웹앱이나 모바일앱의 vibecoding은 상관없지만, 커널·컴파일러·운영체제 같은 핵심 인프라 소프트웨어에 AI를 쓰는 건 위험함
이런 영역에서는 Ada/SPARK 같은 형식 검증 언어가 필요함
언젠가 AI가 만든 제동 시스템을 단 자동차를 타게 될까 두렵다고 느낌
“YOLO식 코드 제출”보다 “AI를 썼지만 최대한 검증한 코드”가 훨씬 더 받아들여질 만함