GN⁺ 2023-11-20 | parent | ★ favorite | on: 메타, Responsible AI 팀 해체(theverge.com)
Hacker News 의견
  • 메타가 AI 모델을 공개함으로써 가장 윤리적인 대규모 AI 기업으로 여겨짐.
    • AI 모델을 '윤리'라는 명목으로 비공개로 유지하는 것은 대기업의 임의적인 결정에 사람들을 더 의존하게 만들어 비윤리적이라는 의견.
  • 모든 AI 팀이 윤리적 책임을 고려해야 하며, 단일 팀에 이를 집중하는 것은 비효율적임.
    • '책임 있는 AI 팀'이 모든 AI 작업을 검토하는 병목 현상을 초래하거나, 다른 팀이 무책임한 AI 개발에 자유롭게 되는 문제가 있음.
  • AI 안전은 다른 사람의 작업에 기생하는 집단으로, 메타가 정리하는 것이 바람직함.
  • 기술 윤리 팀은 초기 단계에서는 현실보다 이미지에 더 중점을 둠.
    • 기술의 핵심 방향을 결정하는 소수의 사람들이 윤리적 책임을 지고 있으며, 이들이 무책임하게 행동하면 큰 피해가 발생할 수 있음.
  • 메타의 윤리 팀이 긍정적으로 기여한 구체적 사례가 없음.
    • 지난 몇 년간 메타의 실적을 검토하여 진실을 유지하는 데 얼마나 효과적이었는지 평가할 필요가 있음.
  • 자금이 부족하고 위기가 닥쳤을 때(오픈AI에서), 단순히 이미지를 위한 부서를 폐쇄하는 것이 최선임.
  • AI 모델 훈련 비용이 많이 들기 때문에, 기술이 발전함에 따라 이를 통제하려는 사람들이 이익을 얻으려 할 것이나, 이는 장기적으로 역효과를 낼 수 있음.
  • AI 안전성과 법률이나 보안 팀 간 비교는 타당하지 않음.
    • 안전한 AI를 구축하는 것이 무엇을 의미하는지 아무도 모르기 때문에, 이러한 팀은 단순히 진행을 늦추는 역할만 할 수 있음.
  • AI를 책임 있게 만드는 가장 좋은 방법은 오픈 소스로 만드는 것임.
    • 이를 통해 단일 기업이 전체적인 통제를 하지 않고, 연구자들이 악용 가능성과 좋은 사용 방법을 더 잘 이해할 수 있게 됨.
  • AI의 책임은 사용자에게 있어야 하지만, 현재 어떤 회사도 사용자가 제품을 책임감 있게 형성할 수 있는 권한을 제공하지 않음.
    • 법적 체계가 이미 이러한 외부 효과를 다루고 있으며, 기업의 책임 회피 시도는 더 무능하고 쓸모없는 시스템을 만들어냄.