3P by neo 2023-11-20 | favorite | 댓글 1개
  • 메타가 책임 있는 인공지능(RAI) 팀을 해체하고, 팀원들을 다른 생성형 AI 제품 팀 및 AI 인프라 쪽으로 재배치함
  • RAI 팀은 2019년부터 AI 훈련 방법의 문제를 식별하는 역할을 수행해왔으며, 다양한 정보로 모델을 훈련시키는 것을 감독함.
  • 이 팀은 이미 올해초에 구조 조정을 겪었으며, 그 당시 "껍질"만 남겨두고 해고 했다는 Business Insider의 기사가 있었음
  • 메타의 자동화 시스템은 페이스북 번역 오류로 인한 잘못된 체포, WhatsApp AI 스티커 생성 시 편향된 이미지 생성, 인스타그램 알고리즘이 아동 성적 학대 자료를 찾는 데 도움을 주는 등의 문제를 일으킴

글로벌 AI 규제 동향

  • 메타의 이러한 움직임은 미국 정부가 AI 안전 규칙을 마련하도록 지시하고, AI 기업들과 협약을 맺는 등, 전 세계 정부가 인공지능 개발에 대한 규제를 마련하기 위해 노력하는 가운데 발생함.
  • 유럽연합(EU)은 AI 원칙을 발표했으며, 여전히 AI 법안을 통과시키기 위해 노력 중임.

GN⁺의 의견

  • 이 기사에서 가장 중요한 것은 메타가 책임 있는 AI 개발을 위한 팀을 해체하고, 팀원들을 다른 부서로 재배치했다는 점임.
  • 이러한 변화는 AI 기술의 빠른 발전과 함께 책임 있는 AI 사용에 대한 중요성이 증가하는 가운데, 기업들이 어떻게 AI 윤리와 안전성을 관리하는지에 대한 흥미로운 사례를 제공함.
  • 또한, 이 기사는 전 세계적으로 AI 규제에 대한 논의가 활발해지고 있는 현 상황을 반영하고 있어, 기술과 법률의 교차점에 관심이 있는 사람들에게 매력적인 내용을 담고 있음.
Hacker News 의견
  • 메타가 AI 모델을 공개함으로써 가장 윤리적인 대규모 AI 기업으로 여겨짐.
    • AI 모델을 '윤리'라는 명목으로 비공개로 유지하는 것은 대기업의 임의적인 결정에 사람들을 더 의존하게 만들어 비윤리적이라는 의견.
  • 모든 AI 팀이 윤리적 책임을 고려해야 하며, 단일 팀에 이를 집중하는 것은 비효율적임.
    • '책임 있는 AI 팀'이 모든 AI 작업을 검토하는 병목 현상을 초래하거나, 다른 팀이 무책임한 AI 개발에 자유롭게 되는 문제가 있음.
  • AI 안전은 다른 사람의 작업에 기생하는 집단으로, 메타가 정리하는 것이 바람직함.
  • 기술 윤리 팀은 초기 단계에서는 현실보다 이미지에 더 중점을 둠.
    • 기술의 핵심 방향을 결정하는 소수의 사람들이 윤리적 책임을 지고 있으며, 이들이 무책임하게 행동하면 큰 피해가 발생할 수 있음.
  • 메타의 윤리 팀이 긍정적으로 기여한 구체적 사례가 없음.
    • 지난 몇 년간 메타의 실적을 검토하여 진실을 유지하는 데 얼마나 효과적이었는지 평가할 필요가 있음.
  • 자금이 부족하고 위기가 닥쳤을 때(오픈AI에서), 단순히 이미지를 위한 부서를 폐쇄하는 것이 최선임.
  • AI 모델 훈련 비용이 많이 들기 때문에, 기술이 발전함에 따라 이를 통제하려는 사람들이 이익을 얻으려 할 것이나, 이는 장기적으로 역효과를 낼 수 있음.
  • AI 안전성과 법률이나 보안 팀 간 비교는 타당하지 않음.
    • 안전한 AI를 구축하는 것이 무엇을 의미하는지 아무도 모르기 때문에, 이러한 팀은 단순히 진행을 늦추는 역할만 할 수 있음.
  • AI를 책임 있게 만드는 가장 좋은 방법은 오픈 소스로 만드는 것임.
    • 이를 통해 단일 기업이 전체적인 통제를 하지 않고, 연구자들이 악용 가능성과 좋은 사용 방법을 더 잘 이해할 수 있게 됨.
  • AI의 책임은 사용자에게 있어야 하지만, 현재 어떤 회사도 사용자가 제품을 책임감 있게 형성할 수 있는 권한을 제공하지 않음.
    • 법적 체계가 이미 이러한 외부 효과를 다루고 있으며, 기업의 책임 회피 시도는 더 무능하고 쓸모없는 시스템을 만들어냄.