저는 오히려 긍정적으로 보는 편이긴 합니다.
전통적인 정보 검색 방식은 "검색엔진에 적절한 검색어를 입력하는 능력"과 "검색 결과에서 내가 원하던 결과를 골라내는 능력" 두 가지가 필요했습니다. 여기서 얻는 피로도가 상당했습니다.
단순한 일을 하는 코드를 찾고싶을 뿐인데 검색결과에 나오는 StackOverflow 글을 타고 들어가보면 서너개의 답변 코드가 있고, 그 중에 어떤 건 옛날 언어 스펙이라 복잡하다고 downvote를 받고, 어떤 건 채택은 되어있지만 버전업이 되면서 더이상 제대로 굴러가지 않아 코멘트에서 사람들이 열심히 불편을 호소하고 자기들끼리 해결법을 찾아나가고 있죠. 이런 일들이 생각보다 종종 있었습니다.
결국 큰 맥락에서 보면 정보화 시대 이후로 "정보의 홍수 속에서 내가 정말 원하는 정보를 골라내는 능력"이 필요한 것은 변함이 없으나, 내게 주어지는 선택지가 너무 많아지고 있어 판단하기 귀찮고 피곤해지고 있다고 생각합니다.
이런 점에서 잘 훈련된 대규모 언어 모델은 사람들이 자주 찾는 아주 trivial한 정보에서부터 어느 정도 고차원의 정보까지 합리적인 UX로 제공할 수 있기 때문에 오히려 어느정도 분업화가 가능하다고 생각합니다.
LLM으로는 적절한 답변을 얻기 힘든 아주 최신의 정보나 다양한 문맥이 여러모로 얽혀있는 복잡한 질문 같은 것들이 StackOverflow 같은 질답서비스가 담당하게 되는거죠.
다만 LLM이 그만큼 정확한 정보를 명확한 근거에 기반해 선별해서 대중에 제공할 수 있느냐는 과제로 남아있다고 생각합니다.
저는 오히려 긍정적으로 보는 편이긴 합니다.
전통적인 정보 검색 방식은 "검색엔진에 적절한 검색어를 입력하는 능력"과 "검색 결과에서 내가 원하던 결과를 골라내는 능력" 두 가지가 필요했습니다. 여기서 얻는 피로도가 상당했습니다.
단순한 일을 하는 코드를 찾고싶을 뿐인데 검색결과에 나오는 StackOverflow 글을 타고 들어가보면 서너개의 답변 코드가 있고, 그 중에 어떤 건 옛날 언어 스펙이라 복잡하다고 downvote를 받고, 어떤 건 채택은 되어있지만 버전업이 되면서 더이상 제대로 굴러가지 않아 코멘트에서 사람들이 열심히 불편을 호소하고 자기들끼리 해결법을 찾아나가고 있죠. 이런 일들이 생각보다 종종 있었습니다.
결국 큰 맥락에서 보면 정보화 시대 이후로 "정보의 홍수 속에서 내가 정말 원하는 정보를 골라내는 능력"이 필요한 것은 변함이 없으나, 내게 주어지는 선택지가 너무 많아지고 있어 판단하기 귀찮고 피곤해지고 있다고 생각합니다.
이런 점에서 잘 훈련된 대규모 언어 모델은 사람들이 자주 찾는 아주 trivial한 정보에서부터 어느 정도 고차원의 정보까지 합리적인 UX로 제공할 수 있기 때문에 오히려 어느정도 분업화가 가능하다고 생각합니다.
LLM으로는 적절한 답변을 얻기 힘든 아주 최신의 정보나 다양한 문맥이 여러모로 얽혀있는 복잡한 질문 같은 것들이 StackOverflow 같은 질답서비스가 담당하게 되는거죠.
다만 LLM이 그만큼 정확한 정보를 명확한 근거에 기반해 선별해서 대중에 제공할 수 있느냐는 과제로 남아있다고 생각합니다.