1P by neo 2023-11-03 | favorite | 댓글 1개
  • 메타의 수석 AI 과학자인 얀 르쿤, AI 위험에 대한 AI 리더들의 침울한 발언을 비판하며 그들이 더 많은 해를 끼칠 수 있다고 주장.
  • 르쿤, OpenAI의 샘 알트만, Google DeepMind의 데미스 하사비스, Anthropic의 다리오 아모데이와 같은 AI 창시자들을 "공포 유발"과 "대규모 기업 로비"로 자신들의 이익을 위해 사용하고 있다고 비난.
  • 그는 이러한 노력이 성공하면 소수의 회사들이 AI를 통제하게 될 것이며, 이를 "재앙"으로 보고 있다.
  • 르쿤의 발언은 물리학자 맥스 테그마크의 게시물에 대한 반응으로, 르쿤이 AI 종말론을 충분히 심각하게 받아들이지 않았다는 것을 제안.
  • 르쿤은 AI의 실제적이고 임박한 위험은 종종 강조되는 가설적인 위험들이 아니라, 소수의 주체들에게 이익을 가져다주는 노동자 착취와 데이터 도용이라고 주장.
  • 그는 슈퍼 지능형 시스템이 활성화되는 순간 인류가 멸망한다는 "급격한 이착륙"이라는 생각을 일축.
  • 르쿤은 AI가 현재 어떻게 개발되고 있는지에 초점을 맞추는 것의 중요성을 강조하고, AI 개발이 이윤 추구를 위한 사유 기업에 의해 독점되는 위험을 경고.
  • 그는 오픈소스 개발자들을 옹호하고, 특히 대형 기술 회사들에 의한 AI 개발에서의 투명성 부족을 비판.
  • 르쿤은 규제자들이 AI에 대한 센세이셔널한 논쟁에 쉽게 흔들릴 수 있어 실제 개발 과정에 대한 감독이 부족할 수 있다는 우려를 표현.
Hacker News 의견
  • Yann LeCun의 AI 기술 잘못된 사용에 대한 견해에 대한 기사 토론
  • "X-Risk"와 인류 갑작스런 멸종 주장을 이용한 권력자들의 규제 포획 시도에 대한 우려 표현
  • AI를 라이선싱 및 보고 요구 사항으로 폐쇄하려는 추진에 대한 비판
  • AI 연구를 통제하기 위한 조치에 대한 지지 표현, 이 분야에서의 주의 필요성 인용
  • 새로운 기술의 개발 및 배포에 대한 토론, 기술의 위험이 보편적으로 배포될 때까지 숨겨질 수 있다는 주장
  • 주요 AI 연구자들을 "AI Godfather"로 레이블링하는 것에 대한 비판, 이것이 오해를 불러일으키고 불필요하다는 주장
  • AI의 잘못된 사용 가능성에 대한 토론, 오픈 소스 모델을 금지하면 이러한 오용에 대응하는 방법을 알 수 없게 될 수 있다는 주장
  • Yann LeCun의 견해에 동의하지 않는 의견, 그가 AI의 위험에 대해 진지하게 대응하지 않는다는 주장
  • 주식 선택 및 예측에 AI가 사용될 가능성에 대한 토론, 이러한 AI가 사회를 사실상 소유할 만큼의 부를 흡수할 수 있다는 주장
  • 대형 언어 모델을 독점하는 것이 이미 늦었다는 주장, 기술이 알려져 있고 비용이 줄어들고 있음을 지적
  • 풍요로운 시대의 비즈니스 미래에 대한 추측, 더욱 독점화될 가능성이 높다는 주장