Hacker News 의견
  • 흥미로운 연구: Anthropic의 "Mapping the Mind of a Large Language Model" 발표 후 빠르게 나온 연구라 흥미로움. 많은 사람들이 여전히 "우리는 LLMs/딥러닝이 어떻게 작동하는지 모른다"고 하지만, 이런 연구들이 그 일반화를 반박함.

  • 예시 선택 의문: GPT-4의 예시 중 가격 인상과 관련된 문구가 실제로는 가격 하락을 나타내는 경우가 있어 이해가 어려움. 왜 이런 예시가 선택되었는지 의문임.

  • 고급 의미 검색: 문서에서 가격 인상 같은 개념을 필터링하는 예시가 마음에 듦. 모델을 훈련시키는 것보다 더 빠르고 정확할 수 있음.

  • 분류 오류: 과학적 설명을 에로틱 콘텐츠로 분류하는 오류가 있음. 링크를 통해 확인 가능함.

  • 유사 연구: Anthropic의 Claude 3 Sonnet 연구와 유사함을 상기시킴.

  • 모델 해석: SHAP 같은 도구를 적용하는 것과 비교했을 때 이 연구가 어떻게 개선되었는지 궁금함. "우리는 현재 언어 모델의 신경 활동을 이해하지 못한다"는 주장은 틀림.

  • 기본 설명 요청: 이 연구의 중요성을 쉽게 설명해줄 수 있는지 요청함.

  • 오픈 모델 동반 도구: 신경망의 출력을 설명하는 오토 인코더를 공개하는 것이 좋은 실천이 될 수 있음. Hugging Face의 모든 오픈 모델에 유용한 동반 도구가 될 수 있음.

  • 신경망의 fMRI: 신경망의 특정 주제에 따라 활성화되는 영역을 볼 수 있는 fMRI와 유사함. 평가 신경망을 연결해 자동으로 활성화 영역을 평가할 수 있을지 궁금함.

  • 희소 임베딩 관련성: 희소 임베딩(Splade 등)과 관련이 있을 수 있으며, 하이브리드 검색에 사용할 수 있을지 궁금함.