▲kuroneko 2023-05-23 | parent | ★ favorite | on: LIMA - 65B LLaMA 모델과 1000개의 프롬프트만으로 GPT-4에 근접하는 성능을 내기 (arxiv.org)영어 성능은 이렇게 빠르게 발전하는데, GPT를 제외한 대부분의 모델은 한국어를 잘 못해서 아쉽네요... ▲dulco 2023-05-23 [-]Anthropic klaude의 한국어 학습이 상당한 수준인데, 아직 ChatGPT보다 구사능력이 일부 달리더군요. 답변달기▲test4458 2023-05-23 [-]ㅠㅠ 맞습니다 한국어는 GPT API 말고 전부 쓰레기 수준... 답변달기
영어 성능은 이렇게 빠르게 발전하는데, GPT를 제외한 대부분의 모델은 한국어를 잘 못해서 아쉽네요...