4P by longnightbebe 4시간전 | ★ favorite | 댓글 1개

인터넷 돌아다니다가 흥미로운 PDF 문서 하나 발견했습니다. 읽어보니까 내용이 개인적으로는 꽤 충격적이라 공유해 봅니다.

요즘 AI 씬에서 다들 밀고 있는 다중 에이전트 방식을 까는 내용인거 같은데, AI한테 자율성을 주면 안 되고 아예 '렌더링 부품'처럼 써야 한다고 말하는거 같네요.

문서 제목도 가제로 되어 있고, 후반부에 무슨 실증 데이터(PoC) 이야기가 나오는 걸 보니, 어디 딥테크 회사나 연구소에서 투자용으로 쓴 내부 백서가 유출된 게 아닌가 싶습니다.

솔직히 무슨 내용인지 100% 다 이해하진 못했지만, 지금 빅테크들이 가는 방향이 틀렸다고 대놓고 들이받는 톤이 꽤 흥미로워서 올려봅니다.

정식 기사가 아니라 제 구글 드라이브에 올려서 링크 공유합니다.

어렵게 써뒀지만, 결국 하고싶은 말은 사람에게도 적용되는 내용이죠.
바보 A가 작성한 글을 바보 A가 다시 본다고 더 좋은 글이 되느냐에 문제죠.

물론 소수의 경우 더 좋아질 여지도 존재하고, 모든 문제를 찍어서 수능 만점을 받을 확률도 있지만, 대부분의 경우는 바보 A의 N번 평균 수준으로 회귀할 뿐이죠.

(Chapter 2는 완전히 동의하지는 못하겠네요.)

다만 논문에서 이야기하는것처럼 what-ever Scaling Law는 일시적인 증가법칙이지, 영원한게 아님을 좀 알았으면 좋겠어요.
OpenAI 논문을 제대로 봤다면 이런 소리를 할리도 없겠지만요.

사실 저런 논문 100편보다 그냥 된다라고 주장하는 사람이 되는것을 증명하면 끝날일이죠.

된다라는 연금술만 하고 있으니 문제죠.