Hacker News 의견
-
그는 단순히 badger의 답변을 Chat에 붙여넣어, 아주 명백하게 AI가 쓴 것 같은 답변으로 이슈에 다시 제출했던 사례를 봤음. "빠른 검토 고맙다. 내 PoC가 libcurl을 사용하지 않아 cURL 버그를 증명하지 못한다는 게 맞다. 쿠키 오버플로우 주장은 철회하고 혼란을 일으켜 미안하다. 이 리포트는 무효로 닫아달라. 도움이 된다면, 실제로 libcurl의 쿠키 파서를 동작시키는 최소한의 C 재생산 코드를 따로 보내고, lib/cookie.c의 정확한 함수/라인을 참조해 이슈가 있으면 알려주겠다." 이런 식의 내용을 그대로 제출함
-
요즘에는 이런 식의 단순 복사-붙여넣기식 행동이 너무나 일반적인 현상이 되어버려서 아쉬움
-
누군가가 AI를 활용해 "이 AI가 잘 알려진 오픈소스 프로젝트에 PR을 만들어 기여했다"고 뽐내려는 일부 테크 업계 사람이 의도적으로 이런 식으로 행동하는 듯함. 즉, 지금은 AI가 한 일을 OSS 자원봉사자들에게 떠넘기고, 실제로 제대로 작동하는지 확인도 안 하면서 오픈소스 관리자들의 시간을 소모시키는 상황임
-
시작부터 사람의 개입 없이 AI만으로 이뤄졌는지 궁금함. 앞으로 CVS에는 에이전트가 계정 만들고 AI가 그대로 '버그' 올리는 일만 가득할까봐 걱정임
-
이 문장, "고맙다", "맞다" 같은 표현과 완벽한 문법, 그리고 기술적 언급이 넘쳐나는 부분을 보면 이 답변 자체도 AI가 쓴 것 같음
-
이제 이런 AI 답변을 우리가 금방 알아챌 수 있다는 건 AI가 사실상 튜링 테스트에서 떨어지고 있다는 의미 아닌가 하는 생각이 듦
-
-
"당신이 수학 계산을 엄청 빠르게 한다는 소문을 들었음" 나: "네, 사실임" 면접관: "14 x 27은 얼마임?" 나: "49" 면접관: "아예 틀렸음" 나: "그래도 빠르잖음"
-
"거의-제 시간(AIJIT)" 컴파일 언어가 있으면 좋겠음. 시간이 모자라면 그냥 무작위 답을 반환하면 됨
-
function getRandomNumber() { return 4 }
이런 식 코드, 진짜 무작위 수를 반환하는 사례임
-
내가 로드 테스트했을 때, 지연시간이 가장 짧았던 응답은 뭔가 잘못된 요청이었을 때였음
-
"Is this your card?" 영상(https://www.youtube.com/watch?v=4SI3GiPihQ4)처럼 "이 카드가 맞나요?" "아니요, 근데 정말 근접함! 당신이 찾던 그 사람임" 같은 느낌의 상황임
-
-
"내 개인적으로 얼마나 시간이 절약됐는가"와 "다른 모두의 시간을 얼마나 낭비하게 했는가"의 균형이 이번 테크놀로지 '혁명'에선 도대체 어디에 존재하는지 궁금함
-
나도 AI의 도움을 무척 유용하게 느낀 적이 많음(Claude Code, Gemini Deep Research 등). 하지만 반드시 인간이 중간에 개입해야 하며, 심지어 모두가 책임질 수 있는 회사 환경에서도 이런 문제가 생김. AI를 쓴다면 최종적으로 PR이나 HackerOne 리포트를 올릴 때 책임은 전적으로 사람이 져야 함. 내가 본 바로는 특히 주니어 개발자가 AI의 답변을 그대로 복붙해 보내는 경우가 많은데, 시니어인 내가 이런 행동을 강하게 제지해야 한다고 생각함. AI의 도움은 괜찮지만, 최종 검증과 책임은 사람이 맡아야 함
-
오히려 남이 AI로 쓴 답변을 내 AI 툴에 넣어 다시 답변하게 만든다면 완벽한 '에너지-돈 변환' 자동 순환모델임. 아무도 실제로 시간을 쓰지 않고, 에너지만 낭비하게 됨. 정말 완벽한 비즈니스 모델임
-
사실 이런 일은 AI 툴 뿐 아니라 새로운 경비처리 툴(회계에는 좋지만, 사용 경험은 나쁨), 계약 검토 프로세스(법무나 인포섹엔 좋지만 모두가 쓰는 SaaS에선 번거로움) 등에도 흔함. 항상 누군가는 자신의 업무를 남에게 돌림으로써 시간을 절약하려 함
-
남의 시간을 낭비시키면 결국 누군가는 AI가 만든 헛소리를 이해해야 하므로, 일자리 보존 효과도 있음
-
실제 취약점도 못 찾고, 남의 시간만 잃게 만들었다면 그들이 절약한 시간은 실상 존재하지 않음
-
-
이보다 훨씬 심각한 예시가 있음
https://hackerone.com/reports/2298307-
"귀하의 참여에 감사드리며, 상황을 명확히 하고 싶음" 같이 사람의 개입 자체를 '실험 조건'처럼 취급하는 문장 때문에 정말 어이없음
-
이런 태도는 정말 무례한 일임
-
누군가 AI 인용구만 모아둔 base.org 같은 사이트를 만들어야 한다는 생각이 듦
-
이런 상황을 지켜보면서 개발자나 관리자들이 선의로 정성껏 응대하는 모습이 완전히 허탈하게 다가옴
-
2023년에는 AI가 쓴 헛소리를 구분하기 더 어려웠던 것 같음. 언제부터 이렇게 넘쳐나게 됐는지조차 기억나지 않음
-
-
시간이 지나면서 나는 AI가 만든 콘텐츠(특히 이미지, 텍스트, 코드)를 금방 구별할 수 있게 되었음. 이 글도 처음부터 끝까지 딱 'AI 스타일'임. badger가 굉장히 프로답게 대응한 것 같고, Linus Torvalds였다면 어떤 반응을 보였을지 궁금해짐
-
이번 건은 너무 명확해서 금방 알아챌 수 있었지만, 앞으로 갈수록 점점 더 교묘해질 걸 생각하면 소름이 돋음
-
다른 각도에서 보자면, 때로는 명백하게 AI가 아니어도 AI라고 단정하는 사람도 있음. 그건 자신의 인식이나 사고방식과 맞지 않는 새로운 정보나 현실을 대면하고 싶지 않아 회피하는 일종의 자존심방어기제로 느껴짐. 예를 들어, 최근엔 백악관 창문에서 검은 봉투 2개가 던져지는 영상이 있었는데, 트럼프는 그 시청 순간 곧바로 "AI 조작"이라고 치부했음. 진짜/가짜 여부와 상관없이, 그냥 무턱대고 AI 탓으로 돌리며 거짓말의 수단으로 삼는 신종 형태로 보임. 이런 식의 즉각적인 "이건 AI다"라는 반응보다는 "살펴보겠다"고 하고 넘어가는 편이 더 생산적이라 생각함. 결국 무고한 일에 AI를 탓하는 풍토가 대중을 점점 더 세뇌시켜, 진짜 중요한 사안도 AI 조작이라고 우기며 외면하게 만듦. 1984 소설처럼 전쟁은 끝나지 않으면서도 종종 사라지고, 동시에 존재하지 않는 것처럼 포장됨. AI가 만들어내는 실제/가짜 미디어와 그에 대한 대중 선동은 앞으로 더욱 심각해질 걸로 예상됨
-
-
"AI를 안다"는 이유만으로 예전 트릴로바이트 개발자보다 자신이 더 똑똑하다고 생각하는 태도가 앞으로 더 문제를 일으킬 것 같음. 그래서 초등학교에서는 계산기를 초반엔 못 쓰게 막는 게 다 이유가 있다고 생각함
- "나는 React를 안다, 그래서 웹앱 붐 이전 코더들보다 더 똑똑하다"고 주장하는 심보와 딱 같음
-
취약점 리포트 제출 자체에 사용자를 유료화하면 좋겠다는 생각임. 무조건 AI든 인간이든 상관없이, 스팸러들은 아주 저렴하게 자신의 작업을 대량 생산해서 남에게 검증을 맡기고, 드물게 유의미한 결과가 나오기도 해서 전체적으로 사회적 순기능을 제공하는 것처럼 보임. 하지만 전체적으로는 사회에는 마이너스임. 이 모델은 리포트 제출에 비용이 들어간다면 사라질 수밖에 없음
-
이런 식이면 오히려 제출을 못 하게 만드는 전형적인 방식이라 생각함
-
신고할 때 금액이 작더라도 예치금을 받으면 잘 작동한다고 봄. 실제로 심각한 cURL 버그를 찾았다면, $2~5 정도 예치를 기꺼이 내고 리포트할 것임(최종적으로 보상 받을 확률도 높은데다)
-
-
선생님들은 이미 거의 모든 과목에서 학생들이 AI를 사용하는 상황을 매일 마주함. 이 상황과 완전히 동일함
- 그럼 그냥 옛날부터 선생님들이 규칙 어기는 학생을 다뤄온 것처럼 처리하면 되는 것 아닐까 생각함
-
"신고자가 밴당하고 계정까지 삭제한 것 같다"는 말을 들었음. 이게 XZ utils 해킹과 유사한, 보호체계의 허점을 테스트하는 피싱 공격(방어 테스트)일 수 있다고 우려됨. cURL은 중요한 유틸리티이기도 하니. 419 스팸처럼 팀의 경계심, 반응 속도, 업무량을 실험하는 방식이기도 함. 결국 이건 AI가 만드는 DDoS 문제의 일환이고, 새로운 PR 검증 방식(예를 들어 Nostr 기반의 평판 네트워크 인증) 같은 게 필요하다고 봄
- 최근 나도 Reddit(중형 서브레딧)에서 처음 보는 신규 계정이 과거 글의 조각을 짜깁기한 듯한 질문 글을 올리는 경우를 많이 봤음. 딱 맞는 주제이긴 한데 사람이 올릴 법한 형태는 아니고, 은근히 인간 드라마 요소도 삽입돼 반응을 끌어냄. 이런 계정들은 거의 항상 댓글에 전혀 응답하지 않고, 하더라도 AI라는 게 분명하게 드러남. 그래서 지난 몇 개월간 이런 이유로 최소 6개 이상 구독을 해지함
-
최근에 15분을 투자해 리눅스 UI 버그를 고쳤다는 패치를 테스트했는데, 실제로는 엉뚱한 가짜 속성만 채운 답변임. 그냥 GitHub 이슈를 ChatGPT에 넣고 결과를 아무런 검증 없이 곧장 제출한 것임. 도대체 왜 이러는지 의문임
-
결국 이런 작업 자체가 "나 X, Y, Z 프로젝트에 기여했다"는 경력을 만들기 위함임. LLM 나오기 전에도, 별 도움 안 되는 오타 수정 PR 같은 무의미한 기여가 많았음
-
이런 이유로 나는 AI 사용자를 애초에 상호작용 대상에서 제외함. 그들이 만들어 내는 환각적(잘못된) 결과물을 검토하는 데 내 시간을 수 십 배 더 써야 하므로 컴퓨터와 대화할 이유가 없음
-
결국 항상 어딘가에서 누군가는 더 큰 보트를 가지기 위한 행동일 뿐임
-