Hacker News 의견들
  • 요즘 AI 관련 입법 뉴스가 거의 다뤄지지 않는 게 놀라움
    뉴욕주만 해도 RAISE(프런티어 AI 안전 프로토콜, 감시, 사고 보고), S8420A(광고에서 AI 생성 인물 공개 의무), GBL Article 47(AI 챗봇의 위기 감지 및 경고 문구), S7676B(배우의 AI 초상권 보호), NYC LL144(AI 채용 도구의 편향 감시), 그리고 미성년자 알고리즘 피드 제한법 SAFE for Kids Act(계류 중) 등 여러 법안이 있음
    앱이 뉴욕 사용자에게만 서비스를 제공해도 최소 세 가지는 적용 대상이 될 수 있음
    미국 내 주별 법 체계가 EU 규제보다 더 복잡한 지뢰밭 같음

    • 이런 법들이 실제로 집행되지 않을 것이라 생각하는 사람이 많음
      하지만 나는 오히려 정직한 개발자들이 과도하게 처벌받는 식으로 집행될 거라 봄
    • SAFE for Kids Act 같은 법이 모든 사용자에게 알고리즘 피드 끄기 토글을 제공하도록 확장되면 좋겠음
      단순히 미성년자 보호가 아니라, 사용자가 직접 선택할 수 있게 하면 신뢰 회복에 도움이 될 것임
    • 결국 AI 채용 자체가 전면 금지될 가능성이 높다고 봄
      비결정적 시스템은 완전한 감사를 할 수 없기 때문임
    • 출판물에 경고문을 붙이는 건 표현의 자유 문제라 더 어려운 법적 과제임
      대신 언론 노조나 길드가 자율적으로 AI 사용 여부를 표시하도록 하는 게 현실적일 수 있음
    • 미국이 EU 규제를 비웃는 건 일종의 자기합리화
      실제로는 대기업 중심의 법 체계에 묶여 있으면서도 스스로 우월하다고 믿는 현상임
  • 나는 ‘원본 보도’ 라벨링이 필요하다고 생각함
    대부분의 뉴스는 재가공된 정보라 AI가 대체 가능하지만, 직접 취재한 기자의 역할은 대체 불가임
    모든 기사에는 출처가 명시되어야 하며, AI가 잘못된 링크를 만들어낸다면 그건 큰 경고 신호임

    • 내 사이트 Forty.news는 40년 전 뉴스를 다루는데도 “출처가 필요하다”는 말을 자주 들음
      정작 대형 언론은 얕은 출처로도 신뢰받는 게 아이러니함
    • Colorado Sun은 기사마다 보도 유형 라벨을 붙임
      이는 초기 Civil 프로젝트의 영향을 받은 것임
    • 음식 원산지를 알고 싶듯, 정보의 출처 투명성도 중요함
      단, 기자의 익명 소스 보호는 예외로 해야 함
    • 이미 “exclusive!” 같은 라벨이 존재하긴 하지만, 그건 진정한 출처 표시는 아님
  • AI 생성 뉴스는 반드시 인간 편집자의 검수를 거쳐야 함
    조직이 AI 결과물에 대해 책임을 져야 하며, 단순한 면책용 경고문으로 끝나선 안 됨
    보안 인증처럼 형식적인 컴플라이언스 쇼로 흐르지 않게 해야 함
    잘못된 AI 보도로 피해가 발생하면 언론사가 책임을 져야 함

    • 하지만 정작 대통령조차 AI 조작 영상을 퍼뜨려도 책임을 지지 않음
      위에서부터 책임을 묻는 게 먼저임
  • 이상적으로는 AI 생성물을 인간 창작물로 속이는 행위가 불법이어야 함

    • 그러나 모든 것에 경고문을 붙이면 Prop 65처럼 무의미해질 위험이 있음
      경고가 남발되면 사람들은 신호를 무시하게 됨
      뉴스 기사에만 한정해야 경고의 신뢰도가 유지됨
    • “AI 생성”의 정의가 모호함
      스마트폰 카메라나 Photoshop도 AI를 쓰기 때문임
    • 인간의 부주의한 작업과 AI 생성물을 구분하기도 어려움
    • 출판은 단순한 작성이 아니라 연구, 편집, 검수 등 여러 단계가 있음
      각 단계마다 AI가 개입할 수 있음
    • 결국 AI 보조 vs AI 생성의 경계가 핵심 쟁점임
  • 이런 법이 결국 Prop 65처럼 모든 콘텐츠에 “AI 사용됨” 경고를 붙이는 결과로 이어질까 걱정됨
    “대부분 AI가 관여했다”는 모호한 문구는 변호사들의 놀이터가 될 것임
    Prop 65 위키 참고

    • 그래도 이렇게 되면 비AI 콘텐츠 필터링이 가능해질 수도 있음
    • 하지만 대부분의 의무 경고처럼 형식적이고 무의미해질 가능성이 큼
    • 오히려 “No AI!”가 부유층의 프리미엄 옵션이 될 수도 있음
      편집이나 교정도 ‘실질적 저작’으로 간주될 수 있음
    • 반대로 Prop 65가 실제로 기업의 화학물질 사용을 줄였다는 연구도 있음
      Washington Post 기사에 따르면 78%의 제조사가 성분을 재조정했다고 함
  • 나는 W3C에서 AI 콘텐츠 공개 표준화 작업 그룹을 시작했음
    웹사이트가 AI 개입 정도를 자발적으로 공개할 수 있게 하는 표준을 만드는 중임
    W3C 페이지GitHub 저장소 참고

    • 참여하려면 어떻게 해야 하는지 궁금하다는 질문이 있었음
  • 뉴욕은 3D 프린터가 총기 부품을 출력할 때 감지하도록 하려 함
    하지만 이런 규제는 결국 선의의 사용자만 지키는 제도가 될 것임
    AI 생성물 여부를 완벽히 감지하는 방법은 없으며, 교육과 인식 개선이 더 현실적인 해결책임

  • 결국 모든 웹사이트가 “이 사이트는 뉴욕주 기준 AI 콘텐츠를 포함할 수 있음” 같은 문구를 붙이게 될 것 같음

    • 그럼 차라리 진짜로 그렇게 하자는 농담도 나옴
  • 언론사들이 모든 콘텐츠에 경고문을 붙이면 경고의 가치가 사라짐
    규제기관이 이를 금지하면, 언론은 오히려 모든 콘텐츠에 AI를 쓰게 될 수도 있음
    이를 “Sesame 효과”라 부르고 싶음

    • 나는 데이터 저널리스트로서 AI를 일부 활용하지만, 항상 방법론 섹션에 공개
      모든 기사에 일괄 경고문을 붙이는 매체는 신뢰하지 않음
    • 반대로 실제로 사람 손으로 검증하는 매체는 구독자 증가를 기대할 수 있음
    • “우리의 모든 콘텐츠는 인간이 검증했다”는 식의 차별화 전략도 가능함
  • 이 모든 논의는 결국 AI 결과를 맹신하는 문화의 문제임
    경고문은 임시방편일 뿐, 의사결정 구조 자체의 책임성이 필요함
    우리는 여러 독립 AI 에이전트가 투표하고 검증하는 합의 기반 시스템을 실험 중임
    오픈소스 CLI consensus.tools에서 테스트 가능함

    • 하지만 대부분의 콘텐츠 제작자는 정확성보다 속도와 비용 절감을 우선함
      저품질 콘텐츠가 넘쳐나는 현실에서, 합의 시스템은 비용이 커서 적용되기 어려움
      그래서 최소한의 경고문 의무화는 여전히 필요함