메타의 최신 대규모 언어모델 'Galactica'가 등장 3일만에 자취를 감춘 이유
(technologyreview.kr)- 갤럭티카는 4,800만 개의 과학 기사, 웹사이트, 교과서, 강의 노트, 백과사전 데이터로 학습한 ‘과학을 위한’ 대규모 언어모델
- 과학자들에게 도움을 주려고 공개했지만, 편향적이고 부정확하며 비상식적인 결과만 생산
- “학술 논문을 요약하고 수학 문제를 해결하며 위키(Wiki) 기사를 생성하고 과학 코드를 작성하고 분자와 단백질에 주석을 다는 등 다양한 일을 할 수 있다.” 라고 했지만, 사실과 허구를 구별할 수 없는 생각 없는 봇(bot)에 불과
- 11/15일 발표 후 3일만에 공개 데모를 삭제