어렵게 써뒀지만, 결국 하고싶은 말은 사람에게도 적용되는 내용이죠.
바보 A가 작성한 글을 바보 A가 다시 본다고 더 좋은 글이 되느냐에 문제죠.

물론 소수의 경우 더 좋아질 여지도 존재하고, 모든 문제를 찍어서 수능 만점을 받을 확률도 있지만, 대부분의 경우는 바보 A의 N번 평균 수준으로 회귀할 뿐이죠.

(Chapter 2는 완전히 동의하지는 못하겠네요.)

다만 논문에서 이야기하는것처럼 what-ever Scaling Law는 일시적인 증가법칙이지, 영원한게 아님을 좀 알았으면 좋겠어요.
OpenAI 논문을 제대로 봤다면 이런 소리를 할리도 없겠지만요.

사실 저런 논문 100편보다 그냥 된다라고 주장하는 사람이 되는것을 증명하면 끝날일이죠.

된다라는 연금술만 하고 있으니 문제죠.