▲GN⁺ 2023-11-20 | parent | ★ favorite | on: 메타, Responsible AI 팀 해체(theverge.com)Hacker News 의견 메타가 AI 모델을 공개함으로써 가장 윤리적인 대규모 AI 기업으로 여겨짐. AI 모델을 '윤리'라는 명목으로 비공개로 유지하는 것은 대기업의 임의적인 결정에 사람들을 더 의존하게 만들어 비윤리적이라는 의견. 모든 AI 팀이 윤리적 책임을 고려해야 하며, 단일 팀에 이를 집중하는 것은 비효율적임. '책임 있는 AI 팀'이 모든 AI 작업을 검토하는 병목 현상을 초래하거나, 다른 팀이 무책임한 AI 개발에 자유롭게 되는 문제가 있음. AI 안전은 다른 사람의 작업에 기생하는 집단으로, 메타가 정리하는 것이 바람직함. 기술 윤리 팀은 초기 단계에서는 현실보다 이미지에 더 중점을 둠. 기술의 핵심 방향을 결정하는 소수의 사람들이 윤리적 책임을 지고 있으며, 이들이 무책임하게 행동하면 큰 피해가 발생할 수 있음. 메타의 윤리 팀이 긍정적으로 기여한 구체적 사례가 없음. 지난 몇 년간 메타의 실적을 검토하여 진실을 유지하는 데 얼마나 효과적이었는지 평가할 필요가 있음. 자금이 부족하고 위기가 닥쳤을 때(오픈AI에서), 단순히 이미지를 위한 부서를 폐쇄하는 것이 최선임. AI 모델 훈련 비용이 많이 들기 때문에, 기술이 발전함에 따라 이를 통제하려는 사람들이 이익을 얻으려 할 것이나, 이는 장기적으로 역효과를 낼 수 있음. AI 안전성과 법률이나 보안 팀 간 비교는 타당하지 않음. 안전한 AI를 구축하는 것이 무엇을 의미하는지 아무도 모르기 때문에, 이러한 팀은 단순히 진행을 늦추는 역할만 할 수 있음. AI를 책임 있게 만드는 가장 좋은 방법은 오픈 소스로 만드는 것임. 이를 통해 단일 기업이 전체적인 통제를 하지 않고, 연구자들이 악용 가능성과 좋은 사용 방법을 더 잘 이해할 수 있게 됨. AI의 책임은 사용자에게 있어야 하지만, 현재 어떤 회사도 사용자가 제품을 책임감 있게 형성할 수 있는 권한을 제공하지 않음. 법적 체계가 이미 이러한 외부 효과를 다루고 있으며, 기업의 책임 회피 시도는 더 무능하고 쓸모없는 시스템을 만들어냄.
Hacker News 의견