▲GN⁺ 2024-02-26 | parent | ★ favorite | on: 확실한 환상: 대규모 언어 모델의 타고난 한계(arxiv.org)Hacker News 의견 첫 번째 댓글 요약: 이 논문의 핵심 주장은 P ≠ NP이기 때문에 LLM(대규모 언어 모델)이 NP-완전 문제에 대해 허구의 답변을 만들어낼 것이라는 것임. 이는 수학, 컴퓨터 과학, 언어에 대한 흥미로운 철학적 질문이지만, 일반적인 'LLM 환각' 개념과는 다른 형식적인 개념을 사용함. 형식적인 세계가 자연 언어의 세계의 부분집합이라는 주장도 흥미로움. 인간은 NP-완전 문제를 해결하지 못하지만, 자연 언어에서는 높은 숙련도를 보임. 두 번째 댓글 요약: 추상만 읽었지만, 형식적인 접근이 LLM이 '모른다'고 대답하는 빈도를 높이는 실용적인 문제에 도움이 될지에 대해 회의적임. 이는 불완전성 정리와 비슷하며, LLM이 모든 것을 알 필요는 없으나 '모른다'고 대답하는 문제가 중요함. 세 번째 댓글 요약: LLM에게 허구를 만들지 않도록 질문을 매우 신중하게 해야 함. 이러한 AI는 '예스맨'과 같아서, 진실 여부와 상관없이 당신을 기쁘게 하려고 함. 이런 사람들과 일하기는 매우 어려움. 약속한 프로젝트를 제대로 수행할지, 가능한지 항상 확인해야 함. 네 번째 댓글 요약: 소설과 이야기 쓰기는 환각의 한 형태임. AI는 논리적 기계와 환각을 만들어내는 두 극단을 달성함. 목표는 두 기능을 동시에 수행하고 구분할 수 있는 기계를 만드는 것임. 환각은 중요하지만, 컴퓨터가 환각 중임을 자각하는 것이 핵심임. 다섯 번째 댓글 요약: 창의성이 좋다면 '창의성'이라 부르고, 나쁘다면 '환각'이라 부름. 이는 버그나 한계가 아니라 기능임. 여섯 번째 댓글 요약: '환각'이라는 용어는 현실에 존재하지 않는 것들을 인지하는 것을 의미하기 때문에, 현실과 잘 매핑되지 않는 문구를 생성하는 현상을 설명하기에 부적절한 용어임. 일곱 번째 댓글 요약: AI에 대한 과대평가가 이제 '현실적인 단계'로 넘어가고 있음. 최근에는 정렬 문제에 대한 열광적인 포스트를 보지 못함. 여덟 번째 댓글 요약: LLM을 문자열의 확률 모델로 정의하며, 이는 인간 지능을 포함할 만큼 넓은 정의임. 따라서 이들의 발견은 인간에게도 동일하게 적용될 수 있음. 아홉 번째 댓글 요약: 환각을 계산 가능한 LLM과 계산 가능한 기준 진리 함수 사이의 불일치로 정의함. 이는 단순히 부정확함이나 날조임. 환각이라는 용어는 이 프로그램들이 지능적이라는 생각에 부응함. 열 번째 댓글 요약: 환각을 계산 가능한 LLM과 계산 가능한 기준 진리 함수 사이의 불일치로 정의함. 이 정의를 사용하면 '환각은 불가피하다'는 제목의 문장을 쉽게 반증할 수 있음. 입력 컨텍스트 길이를 한 바이트로 고정하고, LLM이 'A'에 대해서만 '예'라고 대답하도록 훈련함. 기준 진리 함수를 'A' 입력에 대한 정확한 출력이 '예'이고 다른 모든 입력에 대한 정확한 출력이 '아니오'라고 정의함. 이 LLM은 모든 가능한 입력에 대해 출력이 기준 진리 함수와 일치함을 완전히 검증했으므로 결코 환각하지 않음. 입력 컨텍스트 크기와 기준 진리 테이블의 항목 수를 증가시키는 것이 가능하며, 어느 단계에서도 환각이 '불가피'해지지 않음.
Hacker News 의견
첫 번째 댓글 요약:
두 번째 댓글 요약:
세 번째 댓글 요약:
네 번째 댓글 요약:
다섯 번째 댓글 요약:
여섯 번째 댓글 요약:
일곱 번째 댓글 요약:
여덟 번째 댓글 요약:
아홉 번째 댓글 요약:
열 번째 댓글 요약: