ChatGPT는 어떻게 학습되었을까 - RLHF
(littlefoxdiary.tistory.com)- 모델이 생성한 결과의 <좋음>을 판단하기에 가장 적절한 지표는 인간의 선호 점수
- 사람이 모델의 결과에 대해 평가한 피드백을 생성된 텍스트의 우수성 지표로 사용하고, 더 나아가 그 피드백을 반영한 loss를 설계해 모델을 최적화하는 것이 RLHF(Reinforcement Learning from Human Feedback)
- RLHF: Step by Step
- #1 Language Model 학습하기 (pre-training)
- #2 Reward Model 학습을 위한 데이터 수집 및 모델 학습
- #3 Reinforcement Learning을 통해 Language Model fine-tuning 하기
- RLHF, 생각해야 할 것들
- 현재로써의 한계