4P by GN⁺ 1일전 | ★ favorite | 댓글 2개
  • Meta Platforms가 유럽연합(EU)의 인공지능 실천 강령에 서명하지 않겠다고 공식 발표함
  • 메타 글로벌 정책 책임자인 Joel Kaplan은 이 강령이 과도한 규제로, 혁신과 성장을 저해한다고 강조함
  • 해당 강령은 AI Act(2024년 제정) 준수를 위한 투명성 및 안전성 가이드라인 제공 목적임
  • 유럽연합 집행위원회가 지난주 범용 AI 모델을 위한 최종 실천 강령을 공개했으며, 각 기업이 자율적으로 서명 여부를 결정할 수 있음
  • 메타 외에도 ASML, Airbus 등 기업들이 시행 연기 요구 서한에 참여한 반면, OpenAI는 실천 강령에 동참할 의사를 밝힘

메타의 유럽 AI 실천 강령 거부 배경

  • Meta Platforms는 유럽연합의 인공지능 실천 강령에 서명하지 않기로 결정했음을 공식 발표함
  • 글로벌 정책 책임자인 Joel Kaplan은 "유럽이 AI와 관련해 잘못된 길로 가고 있다"는 입장을 밝힘
  • Kaplan은 이 강령이 모델 개발자에게 법적 불확실성을 초래하며, AI Act 범위를 넘어서는 과도한 조치를 도입하고 있다고 주장함
  • 해당 실천 강령은 지난해 제정된 AI Act의 투명성·안전성 요구사항을 구체화하기 위한 것으로, 다음 달부터 시행 예정임

유럽연합 AI 실천 강령 개요

  • 유럽연합 집행위원회는 범용 AI 모델을 위한 최종 실천 강령을 공개함
  • 각 기업이 자율적으로 강령 서명 여부를 결정할 수 있음
  • 강령의 목적은 AI Act 준수를 위한 프레임워크를 제공하고, AI 기술의 투명성과 안전성을 확보하는 것임

업계 반응과 주요 이슈

  • 메타의 Kaplan은 "이 강령이 과도하게 규제되어, 유럽 내 AI 모델 개발과 사업 성장에 심각한 장애가 될 것"이라고 비판함
  • ASML, Airbus 등 일부 대기업은 시행 2년 연기 요구 서한에 서명하며 비판적 입장을 표명함
  • 반면, OpenAI는 유럽 실천 강령에 참여 의사를 공식적으로 밝힘

메타 글로벌 정책 책임자 교체

  • Joel Kaplan은 2025년 초부터 메타의 글로벌 정책 책임자로 임명됨
  • 이전에는 Facebook의 미국 정책 부사장 및 조지 W. 부시 행정부에서 근무한 경력이 있음

아래 해커뉴스 댓글에 나온 Latham & Watkins의 EU AI Act 첫번째 드래프트 설명

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • EU AI Act는 2024년 8월 1일 발효되었으며, 관련 의무 사항은 단계적으로 시행될 예정임
  • 집행위원회 산하 AI Office는 실천 강령 마련을 주도하며, 2025년 5월까지 준비 후 8월 2일부터 발효될 계획임
  • 2024년 11월 14일, EC는 범용 AI 실천 강령 초안을 처음 발표함
  • 초안은 EU 원칙 및 가치에 맞춘 명확한 목표, 조치, 핵심성과지표(KPI)를 제시함

EU AI Act 초안의 주요 내용

투명성

  • 투명성은 실천 강령의 핵심 원칙임
  • GPAI 모델 제공자는 다음 정보를 문서화하고 유지해야 함
    • 모델 자체에 대한 정보
    • 통합 가능한 AI 시스템 유형 및 용도
    • 허용된 사용 정책
    • 모델 라이선스의 핵심 요소
    • 설계 명세 및 학습 과정
    • 테스트 및 검증 방식
  • 위 정보는 AI Office와 국가 기관, 또는 AI 시스템 제공자에 요청 시 제공해야 함
  • 가능하면 대중에게 정보 공개도 권장함

저작권 준수

  • EU 저작권 및 관련 권리 준수가 강조됨
  • GPAI 모델 제공자는 전체 수명주기 동안 포괄적 내부 저작권 정책을 수립해야 함
  • 타사와 데이터셋 계약 전 저작권 실사 및 Article 4(3) 권리 보유자 준수 확인 필요
  • SME를 제외한 GPAI 제공자는 모델이 저작권 침해 산출물을 생성하지 않도록 합리적 예방 조치 필요
  • 모델 제공 시, 상대방이 반복적 저작권 침해 방지 조치를 약속하도록 계약 조건화 권장함

Text and Data Mining(TDM)

  • TDM을 수행할 때, 저작권 보호 콘텐츠에 합법적 접근 권한 확보 의무
  • Robot Exclusion Protocol을 준수하는 크롤러만 사용
  • 크롤러 제외가 검색엔진 내 콘텐츠 검색성에 부정적 영향 미치지 않도록 주의
  • 기계판독 가능한 권리 보유 표시에 적극 대응
  • 권리 보유 표준 개발에 협력
  • 불법 복제 소스의 크롤링을 방지하기 위한 합리적 조치 필요

저작권 준수 투명성

  • 저작권 관련 조치 및 권리 보유 준수 사항 공개 의무
  • 권리 보유자가 이의제기할 수 있는 단일 연락 창구 제공 필요
  • 학습·테스트·검증 데이터 소스와 접근 권한 정보를 AI Office에 제공해야 함

시스템 리스크 분류

  • GPAI 제공자는 시스템 리스크 분류 체계를 기반으로 리스크를 지속 평가·대응해야 함
  • 주요 리스크 항목:
    • 사이버 범죄
    • 화학·생물·방사능·핵 위험
    • 모델 통제력 상실
    • AI 연구·개발 목적 자동화
    • 대규모 설득·조작
    • 대규모 차별

시스템 리스크 관리 프레임워크

  • 시스템 리스크가 확인된 GPAI 모델 제공자는 안전 및 보안 프레임워크를 구축해야 함
  • 투명성·책임성 강화를 위한 문서화거버넌스 구조(독립적 전문가 평가 포함) 필요
  • 사고 보고, 내부고발 보호, 공공 투명성 조치 등도 명시
Hacker News 의견
  • Meta뿐 아니라, 40개의 유럽 기업들이 AI법 시행이 불명확하다는 이유로 EU에 2년 연기를 요청했음, 이번 code of practice는 자발적인 기준이고 실제 법보다 더 포괄적임, EU는 이 기준에 자발적으로 참여하면 규제가 덜할 수 있음을 시사했음, 그러나 Meta는 어차피 모든 면에서 규제 대상이므로 이런 자발적 동의가 실질적으로 실익이 적다고 생각함, 법 안의 중요한 내용은 모델 제공자가 파트너가 부적절하게 사용할 경우까지 책임을 져야 한다는 점임, 오픈소스에겐 매우 까다로운 요구임, 예를 들어 GPAI 제공자는 저작권 침해를 방지하는 합리적 장치를 마련해야 하고, 계약적으로도 파트너가 해당 방지책을 준수해야함을 명시하도록 장려함, 자세한 내용은 Latham & Watkins의 해설 참고 바람

    • 인용문을 읽어보면 EU가 저작권 보호 자료를 라이선스 없이 학습 데이터로 쓰는 걸 허용하는 예외 조항을 둔 맥락을 이해할 수 있음, 시행에 어려움이 있긴 해도 꽤 우아한 균형을 시도했다고 생각함

    • 이 기준은 합리적이라 생각함, 오픈소스 AI 모델에도 ‘저작권 보호 콘텐츠와 동일하거나 비슷한 결과물을 반복적으로 생성하지 않도록 적절한 조치를 취할 것’을 라이선스 조항에 넣을 수 있음, 이건 미국법이 아닌 유럽법이고 ‘합리적(reasonable)’이란 개념은 법관이 양쪽 이해관계를 저울질해서 해석하기 때문에, 문자해석만으로 판단되진 않음

    • 시장이 어떻게 발전할지 아무것도 모르는 상황에서 이렇게 신생 산업에 섣불리 규제하는 모습은 참 답답함

    • 수많은 저작권 작품을 그대로 재생산하는 모델을 만든다면 그 배포를 허용하면 안 된다는 점에서 이 기준이 무리하다고 생각하지 않음, 그게 단순한 소프트웨어에서도 허용되지 않을 것임, 단지 AI 모델이라는 이유만으로 예외가 될 수는 없겠음

    • 법 조항 중 모델 제공자가 파트너의 남용까지 책임져야 한다는 부분은 실제 법 원문[0]에는 없고, Code of Practice의 저작권 장에 포함된 내용임, 다만 이 Code는 법에 추가 요건을 부과하지 않고 법을 ‘어떻게’ 준수할 수 있는지 예시를 들려주는 성격임, 예를 들어 법에서는 ‘머신리더블 opt-out’ 존중을 요구하지만 구체적인 방식을 제시하지 않는데, 코드에서는 robots.txt 활용을 예시로 듦, 저작권 관련 내용은 measure 1.4로 명시되어 있는데, a) 모델이 저작권 침해 콘텐츠를 재생산하지 않도록 기술적 조치를 취할 것, b) 저작권 침해 사용을 허용하지 않는다는 내용을 이용약관이나 문서로 명확히 할 것, 오픈소스 모델의 경우 해당 사실을 문서에 안내만 해도 됨, 이 Code of Practice는 자발적으로 서명한 경우에만 적용되며, 남이 내 모델을 가져다 서명했다고 해서 내 책임이 생기는 건 아님, 포토샵 플러그인을 GPL로 공개한다고 포토샵 소스 공개를 강제할 수 없는 것과 같음, 법에는 오픈소스 예외가 꽤 있음, Meta가 반발하는 이유는 EU AI Office가 Meta AI를 오픈소스로 인정하지 않아서 이런 예외를 못 받는 듯함, 자세한 원문은 법령 링크Code of Practice 링크 참고 바람

  • Meta의 반응만으로도 이번 AI 법이 우리가 정말 필요로 하는 내용일 것이란 편견이 생긴다는 점을 인정함, 실제로 무엇이 들어있는지 잘 모르지만 이런 생각을 하게 됨

    • “AI Code of Practice”는 총 3장으로 구성되고, 여기초안 이력에서 확인 가능함, 아직 전문을 읽진 않았고 이전 AI 법(artificialintelligenceact.eu)만 익숙함, 추측컨대 Meta는 2장, 저작권 관련 내용, 특히 저작권 자료의 무단 크롤링 관행과 충돌하는 점을 두고 문제 삼을 듯함, 이게 진짜 ‘공정 사용’에 해당하는지 지금도 불분명함

    • 어떤 기업이 ‘악하다’고 해서 그 주장이 반드시 틀렸다는 뜻은 아니라 생각함

  • 가이드라인 요약을 궁금해하는 분에게 이곳에서 확인 가능함, 확실히 부담이 큰 규정임, 실제로 보면 대형 저작권자·변호사·관료에게나 유리해 보임

    • 이런 규제들은 결국 유럽 기업에 함정이 될 수 있음, 일정 규모를 넘는 순간 규제 부담이 급격히 커져 중소/신생 유럽 AI 기업 입장에선 성장 임계점을 넘는 게 두려운 상황임, 반면 미국·중국 빅테크는 훨씬 빠르게 혁신할 수 있는 환경 속에서 AI 수준을 높이고 자본도 키워, 결과적으로 잘 다듬어진 제품과 두터운 자금력으로 EU 시장에 진입해 진짜 경쟁은 이들에게 유리하게 기울 수 있음

    • 유럽은 AI 산업을 키워 본 적이 없으면서, 산업 전체를 지나치게 세세하게 규제하려 듦, 규제가 규제를 위한 수준임, Draghi의 EU 경쟁력 보고서에서 변화의 전기를 기대했지만, 실제 EU는 그 방향을 전혀 바꾸지 않았다고 실망감이 큼, EU 정책에서 신뢰를 잃게 됨

    • ‘부담스럽다’고 표현했는데, 구체적으로 어떤 점이 그렇게 부담스럽다는 것인지 궁금함

  • EU의 규정이 때론 쿠키 정책처럼 전 세계를 따르게 만드는 힘이 있었음, 대체로 소수가 대다수에 요구를 관철하려면 준수 비용이 거역 비용보다 낮아야 함, 하지만 AI는 다름, 판이 너무 크고 누구도 멈추지 않을 것임, AI는 핵전쟁이 아니라면 절대 막을 수 없음

    • AI의 잠재 위험은 어마어마함, 자동화 무기부터 악의적 AGI까지 상상 가능함, 독일은 동서독 분단 시 자동화 기관총 트라우마가 남아 있고, 우크라이나 역시 심각한 드론전 심리적 충격을 겪는 중임, AI의 실질적 위험 역시 분명함, 규제와 법이 필수임

    • 쿠키법 결과는 사람들이 끝도 없는 팝업에 시달리는 것뿐임, uBlock 없으면 웹 사용 자체가 고통임, 사용자 추적은 서버사이드로 이동했고, 실제 개인정보보호는 향상되지 못함, 돈이 너무 많이 오가니 산업계가 이런 허술한 규제를 쉽게 우회함

  • 유럽 규제에 무작정 동조하는 댓글이 많아 놀랐음, 기본적으로 유럽 규제는 과도하고 잘못 설계된다고 보는 유일한 사람인지 궁금함

    • 유럽은 지금까지 미국 빅테크 독점을 깨는 정책을 낸 적이 없음, EU 사용자 대부분은 여전히 Google, Meta, Amazon에 의존 중임, EU의 목표는 미국 기업에 직접 대항하는 게 아닌, 예의를 갖춰주고 일부 국가 안보 이익 지키는 수준인 듯함, 너무 점잖지만 본질적으로 합리적인 포지션임

    • 시민 보호 측면에서라면 규제가 엄하다 해도 나쁠 게 뭔지 궁금함

    • ‘맹목적’이라고 단정하는 건 본인은 옳고 상대방은 몰라서 그런 결정을 한 거라 가정하는 셈임, 본인도 ‘기본적으로 가정한다’고 했으니 스스로 비판하는 것과 똑같음

    • 사실 유럽을 억누르려는 외부의견이 너무 많이 개입한 것 같음

    • “기본적으로 가정한다”는 점 자체가 문제임, 일단 가정하지 말고, 관련된 내용을 직접 읽고, 본인만의 의견을 갖는 게 중요하다고 생각함, 초국가 대기업의 의견 말곤 각자 의견을 가져보면 어떨지 제안함

  • EU가 LLM에도 모든 웹사이트처럼 팝업을 다 달아버릴 것 같아 불안한 심정임

    • 인터넷엔 원래 온갖 팝업, 주의 끄는 UX 패턴이 가득한데, 유일하게 문제 삼는 게 사용자에게 추적 파기를 직접 고를 기회가 되는 팝업이라니 의아함

    • 팝업을 의무화한 건 EU가 아니라 기업 쪽임, 웹사이트 운영자들이 직접 데이터 수집을 줄이거나 아예 피하면 팝업도 필요 없는데, 오히려 사용성 포기하면서 무의미한 팝업을 도입함, 그 결과가 지금의 난장임, 그나마 아무 것도 수집하지 않는 사이트(예: Fabien Sanglard 블로그)는 팝업이 전혀 없음, EU의 실수는 이런 악용까지 예상 못했던 점임, 결과가 너무 안 좋긴 함

    • 팝업 없이도 충분히 할 수 있는데, 누구나 대기업 따라하기만 바쁨, 사용 경험보다 따라하기가 우선임

    • 이런 팝업 정말 싫어함, 이런 상황이 계속 방치되는 걸 보면 담당자들이 얼마나 느린지 드러남

  • Meta의 성장 저지가 목적일 거라 예상함, LinkedIn 게시글을 보면 Meta는 오히려 유럽 기업의 성장 저해를 걱정한다 밝힘, “이런 과도한 규제가 유럽 내 프론티어 AI 모델 개발/배포를 저해하고, 그 위에 비즈니스를 쌓으려는 유럽 기업까지 위축시킨다”고 전함

    • Meta가 “타 기업들과 우려를 공유한다”고 할 때 실제 의미는 단순히 자기 PR을 위해 그 순간 편한 논리를 쓰는 것뿐임, 실제론 공익이나 타사의 이익에는 전혀 신경 안 쓰고, 오로지 데이터 더 모으고 광고 더 팔 생각뿐임

    • 실제 Code of Practice를 훑어보면 특별히 과하거나 ‘과도한 권한 남용’이라 할 부분은 없음, 결국 모델 제공자들이 투명하게 행동해야 하는데, 이게 Meta의 기존 방식과 충돌할 뿐임

  • Kaplan의 LinkedIn 포스트엔 정책 중 어떤 점이 문제인지 전혀 언급이 없음, “성장 저해”란 표현도 사실상 신규 기능 도입 시 opt-in 의무화 같은 소박한 내용일 수도 있다고 생각함

    • 어떤 규제 앞에서든 이런 핑계가 단골로 등장하는 느낌임
  • 글로벌 환경이 점점 양분되고 있고, Meta는 불만과 갈등을 증폭하는 데 한몫 했다고 생각함, 언젠가 유럽에 가서 오픈소스 LLM을 자유롭게 쓰고 싶음

  • 이 논의가 “규제가 있으면 AI 발전이 멈춘다”는 결론으로 흐르지 않길 바람, 저작권이나 정보 출처 보호 등에도 충분한 가치를 둬야 함