5P by neo 5달전 | favorite | 댓글 3개
  • LLM 사용자들 사이에 AI 안전 단체들이 자신들이 사용하는 오픈소스 LLM을 금지하려 한다는 불만이 제기되었는데, 이는 잘못 퍼진 소문이라는 주장이 제기됨
  • 그러나 이 주장은 사실이 아님. 실제로 많은 AI 안전 단체들이 "현재 존재하는 모델의 오픈소싱을 범죄화할 법안"을 지지했었음
  • 이러한 단체들 중 일부는 자금이 풍부하고 정책 입안자들과 점점 더 연결되고 있음

AI 안전 단체들의 법안 제안

  • Center for AI Safety: AI 안전 연구와 홍보에 중점을 두는 자금이 풍부한 단체로, NTIA에 제안한 규제안에서 "강력한 AI 시스템"을 정의하고, 이러한 시스템의 오픈소싱을 사실상 금지하는 요구 사항을 제시함.
  • Center for AI Policy: 워싱턴 D.C.에 기반을 둔 로비 단체로, 처음 제안한 규칙에 따르면 이미 출시된 Llama-2가 새로운 기관의 규제를 받아야 함.
  • Palisade Research: 정책 입안자와 대중에게 AI 위험에 대해 조언하기 위해 위험한 기능을 구체적으로 시연하는 것을 목표로 하는 비영리 단체로, Llama 2의 출시 중단을 정부에 촉구함.
  • The Future Society: AI를 더 나은 거버넌스로 조정하기 위한 목표를 가진 싱크탱크로, "Type 2" GPAI에 대한 엄격한 요구 사항을 제시하고, 오픈소스 모델이 이를 충족할 수 없음을 명시함.

AI 안전 단체들의 영향력

  • 이러한 단체들은 자신들의 정책이나 목표를 매우 명확하게 밝힌 경우에 한해 일부에 불과함.
  • 덜 명확한 정책을 가진 다른 단체들도 존재하며, 결국 오픈소싱에 반대하는 입장을 가짐.
  • AI 안전 단체들이 과거에 원했던 바대로 법안을 통과시켰다면, 현재 활발히 사용되고 있는 모델들을 금지했을 것임.
  • 이러한 단체들은 여전히 유사한 조치를 통과시키기를 희망하고 있으며, 오픈소스 AI 운동은 이러한 단체들에 비해 입법적으로 뒤처져 있음.

GN⁺의 의견

  • AI 안전 단체들의 제안은 오픈소스 AI의 발전을 제한하고, 기업 독점을 강화할 위험이 있음.
  • 오픈소스 AI는 연구와 혁신에 필수적이며, 이를 제한하는 것은 기술 발전에 부정적인 영향을 미칠 수 있음.
  • 이 글은 오픈소스 AI에 대한 법적 제약이 현재 진행 중임을 보여주며, 이는 AI 기술의 민주화와 접근성에 중요한 영향을 미칠 수 있는 주제임.

비기술자들을 위한 요약

  • AI로부터 인류를 보호하려는 명목을 가지고 시작한 "안전한 AI" 단체들
  • 이 많은 "안전한 AI" 단체들은 AI의 접근성 자체를 우려함.
  • 당연하지만 접근성이 좋을 수록 온갖 비윤리적인 컨텐츠 노출이 많아져서
  • 이를 막기 위해 시도하는 임법 방안이 바로 "오픈소스 AI를 금지"
  • 오픈소스 AI를 금지시키면 당장 누구나 AI 컨텐츠에 접근하는 경로가 차단되는 효과
  • 하지만 이어 상용 AI에 대한 영향력을 키워 오히려 AI를 입맛대로 꾸미려는 우려가 있음
  • 이런 선민 사상으로 AI 시스템을 만지려고 하니 연구원, 전문가 및 관계자들은 반발.

최근 국내 웹 사이트에 불법 컨텐츠 제공에 대한 강력 규제 법안을 시사했죠. 이젠 히토미 번호만 제공해도 서비스 제공자가 처벌받을 수 있는 어처구니 없는 법이죠.
한국에도 있고, 전 세계적으로 피해야 할 고름이며, 성숙한 AI 제정이 마련되려면 이런 충돌은 불가피하겠죠...

신기술이 나올 때마다 겪는 것 같아요.

Hacker News 의견
  • AI 안전 전문가들은 위선적이라는 비판이 있음. 그들이 주장하는 바를 실천한다면, 모든 AI를 금지해야 한다고 주장할 것임. AI의 해로운 영향은 가중치 공개 여부와 상관없이 이미 발생하고 있으며, 특히 표절을 숨기고 인터넷에 기술적으로 다른 단어로 재구성된 동일한 텍스트를 스팸으로 보내는 것이 AI의 가장 수익성 높은 사용 방법으로 지적됨.
  • 오픈 소스 AI의 종말이 가까울 수 있는 또 다른 이유는 훈련 데이터가 라이선스를 받게 되면 그것으로 끝날 것이라는 점임. 많은 사람들이 오픈AI와 미드저니가 오픈 소스 AI가 생존하기 위해 필요한 것, 즉 미세 조정이나 처음부터 훈련하는 것에 대해 분노하고 있음. 정치인이 이를 플랫폼 이슈로 삼는 순간, 법이 재작성되어 회사들이 훈련 데이터를 마음대로 사용하는 것을 막을 것으로 보임.
  • 안전에는 여러 유형이 있음. 예를 들어, 이익 보호도 안전의 한 형태임. AI 분야의 기존 회사들을 위한 로비스트처럼 보이는 조직들이 많이 있음. 마이크로소프트의 라이선스 집행 노력이 이러한 전략을 사용했던 것으로 기억됨.
  • AI 안전이라는 용어 아래 여러 가지 다른 아이디어가 포함되어 있어 도움이 되지 않음. 예를 들어, "안전한" 정치적으로 올바른 출력, 포르노 없음, 대규모 사회/선거 조작, 강력한 AI에 의한 인류 멸망 등이 있으며, 이 세 가지는 서로 거의 공통점이 없어 모든 토론을 비효율적으로 만듦.
  • 정부는 "AI"를 그들의 통제와 감독 없이 일반인들이 사용할 수 있는 능력이 그들의 권력 확장을 줄인다는 것을 알고 있음. 기사에서 보여주듯이, 이러한 "싱크탱크"들은 Llama 2의 반복을 방지하기 위해 이미 기반을 마련하고 있음. 우리에게는 AI 스톨만이 필요하며, FOSS AI 모델이 80년대와 90년대에 FOSS UNIX를 위해 추진된 운동처럼 되어야 함. 하지만 스톨만에게 이 주제에 대해 글을 썼을 때 그는 관심이 없거나 패배주의적인 태도를 보이며 모델 가중치에 대한 GPL의 아이디어를 대부분 무시함.
  • 대부분의 AI 안전 전문가들은 자신들이 설교하는 것을 강하게 믿는 것처럼 보임. 그들이 옳은지는 전혀 다른 논의임. 그러나 AI 안전에 대한 자금 조달은 분명히 규제 캡처나 어떤 형태의 보호주의에 의해 부분적으로 동기가 부여됨.
  • 기존의 통제 또는 권력 시스템이 자기 복제하는 욕구를 과소평가하지 마십시오.
  • 많은 선의의 AI 안전 연구자들이 있지만, "나에게는 AI가, 너에게는 안 된다"는 이중 잣대를 드러내는 안전 위선도 보임.
  • 데이터 라이선싱은 큰 병목 현상이 될 것임.
  • 검열되지 않은 결과는 오픈소스 모델에 대한 질문을 어둡거나 회색 영역에서 불리하게 사용될 것임.
  • 오픈소스와 폐쇄 소스 모델 사이의 계산 능력과 모델 크기 차이가 큼. 7B는 오픈소스에 해당하며 폐쇄 소스는 그보다 훨씬 클 것임.
  • 이러한 조직들이 FLOP 임계값을 명명하고 MMLU를 관련 평가 메트릭으로 삼는 것은 다소 우스꽝스러움. 여러 조직이 비슷한 임계값을 복사하여 붙여넣은 것처럼 보임. 계산 비용이 저렴해짐에 따라 이러한 임계값도 점점 저렴해질 것임. 우리는 이를 되돌아보며 편협하고 짧은 안목으로 여길지도 모름.