1P by neo 2달전 | favorite | 댓글 1개

오픈소스 개발에 대한 우려사항들

  • 과도하게 광범위한 정의: 법안 내 "적용 대상 모델"에 대한 정의가 매우 광범위하여, 최소한의 위험만 내포하고 있는 다양한 오픈소스 모델들까지 포괄할 수 있음. 이는 의도치 않게 유익한 AI 프로젝트에 종사하는 선의의 개발자들의 활동을 범죄화할 수 있음.
  • 이중 용도: AI 모델은 워드 프로세서, 계산기, 웹브라우저와 같이 컴퓨터에서 실행되는 일반적인 소프트웨어임. 모델의 제작자는 모델이 해로운 일에 사용되지 않도록 보장할 수 없음. 이는 웹브라우저, 계산기, 워드프로세서의 개발자도 마찬가지임. 이러한 범용 도구의 제작자에게 책임을 묻는 것은 실제로 대기업의 법무팀을 제외하고는 그러한 도구를 만들 수 없다는 것을 의미함.
  • 제한적 요구사항: 이 법안은 의무적인 폐쇄, 광범위한 보고, 잠재적으로 모호한 "적용 대상 지침" 준수 등 개발자에게 상당한 부담을 부과함. 이러한 요구사항은 복잡한 규제 프로세스를 탐색할 자원이 부족한 오픈소스 개발자들에게 불균형적인 영향을 미칠 수 있음.
  • 개방성 저해: 법적 제재와 관료주의적 장애물에 대한 우려로 인해 오픈소스 개발이 위축될 수 있으며, AI 발전의 원동력이었던 협업 정신을 저해할 수 있음. 이러한 투명성 감소는 잠재적 안전 문제를 식별하고 해결하는 것을 더 어렵게 만들 수 있음.

중소기업과 혁신에 미치는 영향

  • 진입장벽: 컴플라이언스와 관련된 상당한 비용(수수료, 감사, 법률 자문 등)은 중소기업과 스타트업에 상당한 진입장벽을 만들 수 있음. 이는 경쟁을 제한하고 기존 대기업에 권력을 집중시켜 궁극적으로 혁신을 저해함.
  • 연구에 대한 위축 효과: 의도치 않게 법안 조항을 위반할 것에 대한 두려움은 연구자와 개발자들이 자기 검열을 하거나 유망한 AI 연구 분야를 탐구하는 것을 회피하도록 만들 수 있음. 이는 과학적 진보를 저해하고 사회적 문제를 해결하기 위한 AI의 잠재력을 제한할 것임.
  • 인재 유출: 이 법안으로 인해 조성된 제한적 환경은 유능한 AI 연구자와 개발자들을 캘리포니아 주에서 밀어낼 수 있으며, 주 경제에 해를 끼치고 AI 혁신을 주도하는 입지를 약화시킬 수 있음.

대안적 접근 방식

  • 오픈소스 개발 지원: 협업, 투명성, 더욱 다양하고 탄력적인 AI 생태계 조성을 위해 AI 모델의 오픈소스 개발을 장려하고 촉진할 것.
  • 개발이 아닌 사용에 초점: AI 모델 개발을 규제하는 대신, 특히 공공 안전과 보안에 높은 위험을 초래하는 애플리케이션에 초점을 맞출 것. 건강관리, 형사사법, 중요 인프라 등 피해 가능성이 가장 높은 고위험 영역에서의 AI 사용을 규제하여 유해한 사용에 대한 책임을 묻되, AI 기술의 지속적인 발전은 허용할 것.
  • 투명성과 협업 촉진: 산업계, 학계, 정부 간 협력을 통해 책임감 있는 AI 개발을 위한 모범사례 개발과 채택을 장려할 것. 여기에는 산업 표준 수립, 오픈소스 개발 육성, AI 안전 연구에 대한 투자 등이 포함될 수 있음.
  • AI 전문성에 투자: 정부 기관이 AI에 대한 전문 지식을 개발하고 잠재적 위험을 효과적으로 모니터링하고 해결할 수 있는 역량을 구축할 수 있도록 자원을 제공할 것. 이를 통해 안전과 혁신의 균형을 이루는 더욱 정보에 입각하고 미묘한 AI 규제 접근법이 가능할 것임.

GN⁺의 의견

  • 오픈소스 모델의 개발을 규제하는 대신 규제 당국은 오픈소스 개발을 장려하고 감독하는 역할을 해야 함. 오픈소스는 투명성과 협업을 증진시킬 뿐만 아니라 다양한 관점을 제공하므로 오히려 안전성을 높이는 데 도움이 될 수 있음.
  • AI 모델 자체를 규제하기보다는 고위험 분야에서의 AI 활용에 대해 감독하고 규제하는 것이 더 효과적일 것임. 건강, 사법, 공공 안전 등 위험도가 높은 분야에서의 AI 활용에 대해서는 엄격한 가이드라인과 규제가 필요하지만, 저위험 분야에서는 AI 기술 발전을 저해하지 않는 선에서 규제해야 함.
  • 이 법안이 AI 개발에 지나친 부담을 줌으로써 캘리포니아가 AI 분야에서 선도적 위치를 잃을 위험이 있음. 혁신을 저해하지 않으면서도 유해한 사용에 대해서는 책임을 물을 수 있는 대안적 접근 방식을 모색해야 할 것임.
  • 정부는 AI에 대한 전문성을 키우고 AI 생태계에 대한 이해를 높여 보다 현명한 규제 정책을 펼칠 필요가 있음. 단순히 규제를 강화하기보다는 산학연 협력을 통해 바람직한 방향으로 유도해 나가는 노력이 필요해 보임.
Hacker News 의견
  • 모델 개발자는 웹 브라우저, 계산기, 워드 프로세서 개발자와 마찬가지로 모델이 해로운 용도로 사용되지 않도록 완벽히 보장할 수 없음. 이런 범용 도구 제작자에게 책임을 지우는 것은 사실상 대기업의 법무팀만 가능하게 만듦.

  • 정치인들은 오픈소스 AI에 강력히 대응 중임. 소로스는 기업과 정부의 AI 프로젝트 시너지가 냉전시대 독재자들보다 더 큰 위협이 될 수 있다고 말함. "독재 정권과 IT 독점 기업의 결합은 개방 사회에 내재적 우위를 부여하며 치명적 위협"이라고 함.

  • 블로그에는 언급되지 않았지만, 2024년 2월 7일 캘리포니아 주의회에서 SB-1047 법안이 소개됨. 선진 AI 모델 개발과 사용을 규제하기 위한 것으로, 개발자에게 안전성 평가, 안전 요구사항 준수, 사고 보고 등을 의무화하고 기술부 산하에 감독 기구를 신설함.

  • 이런 규제로 기존 선두 AI 기업에 유리하고 신규 진입은 불가능해질까 우려됨. 스콧 위너의 주택 정책은 좋았으나 이 법안은 정부의 과도한 간섭임.

  • 정부가 허용한 것만 학습할 수 있고, 새로운 부서와 수수료 부과 권한이 생기며, 당연히 컨설턴트 고용도 의무화됨.

  • 장기적으로 AI 스타트업에 유리한 주는 어디일까? 캘리포니아는 아닐 듯. 워싱턴이나 텍사스는 아직 규제 움직임이 없고 장점도 있어 보임.

  • '적용 대상 모델'의 정의가 모호함. Int와 float 연산은 계산량이 크게 다른데 법정에서 문구 해석 여지가 있음. 현재 벤치마크 기준으로 미래까지 고정시켜 알고리즘 발전과 무관하게 제한하려 함.

  • 이 기사는 LLM이 생성한 것 같은 수준 낮은 내용임. 법안을 제대로 이해하려면 Zvi의 분석을 읽어보는 게 좋음.

  • 이 기사 전체가 ChatGPT가 쓴 것처럼 느껴짐. 막연히 오픈소스의 가치를 언급하면서 원 법안은 인용조차 안 함.

  • "AI 모델 개발 대신 활용, 특히 공공 안전에 위험한 분야를 규제하자"는 의견이 있음. 의료, 형사사법, 핵심 인프라 등 위험이 큰 분야에서의 AI 사용을 규제해 유해한 사용에 책임을 묻되 AI 기술 발전은 허용하자는 것인데, 이에 대한 반론이 있을까?