# ChatGPT를 활용한 아마추어가 Erdős 문제를 풀다

> Clean Markdown view of GeekNews topic #28902. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=28902](https://news.hada.io/topic?id=28902)
- GeekNews Markdown: [https://news.hada.io/topic/28902.md](https://news.hada.io/topic/28902.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-04-26T16:33:21+09:00
- Updated: 2026-04-26T16:33:21+09:00
- Original source: [scientificamerican.com](https://www.scientificamerican.com/article/amateur-armed-with-chatgpt-vibe-maths-a-60-year-old-problem/)
- Points: 1
- Comments: 1

## Topic Body

- **primitive set**의 Erdős sum 최솟값이 1이고 원소들이 무한대로 갈수록 그 값에 가까워진다는 오래된 문제가, **GPT-5.4 Pro**가 만든 해법으로 풀린 것으로 받아들여짐
- 해법은 Liam Price가 한 번의 프롬프트로 얻어 erdosproblems.com에 올린 결과물이며, 이후 Kevin Barreto와 전문가들의 검토를 거치며 빠르게 주목받음
- 이번 증명은 사람들이 보통 택하던 첫 접근과 다른 경로를 따랐고, **관련 분야의 알려진 공식**을 이 문제에 예상 밖으로 결합한 점이 두드러짐
- ChatGPT의 원본 증명은 그대로 쓰기에는 매우 거칠었고, 전문가가 핵심을 가려 이해한 뒤 더 짧고 정돈된 형태로 다듬어짐
- 저명한 수학자들도 풀지 못했던 문제에 **LLM의 새로운 접근**이 통했다는 점에서, 큰 수의 구조를 보는 방식과 비슷한 문제들을 묶는 관점에 변화를 줄 수 있음

---

### 문제와 해결 방식
- **primitive set**은 집합 안의 어떤 수도 다른 수로 나누어떨어지지 않는 정수 집합을 뜻함
  - Erdős는 이런 집합에 대해 계산하는 **Erdős sum**을 정의했고, 집합의 수들이 커질수록 이 점수가 내려간다고 봤음
  - 그 최솟값이 정확히 1이며, 집합의 원소들이 무한대로 갈수록 그 값에 가까워진다는 추측이 오랫동안 남아 있었음
- [이번 해법](https://www.erdosproblems.com/1196)은 Liam Price가 **GPT-5.4 Pro**에 한 번의 프롬프트를 넣어 받은 뒤 [erdosproblems.com](http://www.erdosproblems.com)에 올린 결과물임
  - Price는 문제의 배경사를 모른 채 Erdős 문제를 AI에 넣어보던 중 겉보기에는 맞는 해법을 얻음
  - 이후 Kevin Barreto와 함께 검토했고, 연락을 받은 전문가들이 빠르게 주목함
- 이전에도 AI가 여러 **Erdős problems**를 풀었다는 보도가 있었지만, 문제마다 중요도와 난도가 크게 달라 수학 실력을 재는 기준으로는 불완전했고, 겉보기보다 새롭지 않은 해법도 적지 않았음
  - 이번 결과는 저명한 수학자들도 풀지 못했던 문제를 다뤘고, 같은 유형의 문제에 쓰이지 않던 방법을 사용한 점에서 다르게 받아들여짐

### 왜 다르게 평가되는가
- 사람들은 이 문제를 풀 때 대체로 비슷한 첫 접근을 택했지만, 이번 **LLM** 해법은 완전히 다른 경로로 들어감
  - 관련 수학 분야에서는 잘 알려진 공식을 끌어왔지만, 이런 문제에 적용할 생각은 하지 못했던 조합이었음
- Terence Tao는 문제 자체가 생각보다 쉬웠을 수도 있고, 초반 접근에서 일종의 **mental block**이 있었던 것으로 짚음
- Jared Lichtman은 ChatGPT의 원본 증명이 그대로는 매우 거칠었고, 무엇을 말하려는지 전문가가 가려내고 이해하는 과정이 필요했다고 밝힘
  - 현재는 Lichtman과 Tao가 증명을 더 짧게 다듬어, LLM의 핵심 통찰이 더 잘 드러나도록 정리한 상태임
- 이번 도약은 큰 수와 그 구조를 바라보는 **새로운 사고방식**으로 이어질 수 있음
  - 장기적 중요성은 아직 확정하기 이르지만, 비슷한 문제들이 하나로 묶여 있다는 직관을 뒷받침하는 방법으로 받아들여지고 있음

## Comments



### Comment 56331

- Author: neo
- Created: 2026-04-26T16:33:23+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47903126) 
- [https://archive.ph/2w4fi](<https://archive.ph/2w4fi>)

- **Paul Erdős**는 1900년대 대부분을 살았던, 아주 유명하면서도 꽤 괴짜 같은 수학자였음  
  수학자들이 붙잡고 있는 문제를 찾아다니며 기록하는 습관이 있었고, 난도도 현재 학부생 숙제 수준부터 풀면 **Fields Medal**급인 문제까지 매우 넓었음  
  이 문제들을 하나로 묶는 핵심은, 지난 100년에서 가장 똑똑한 사람 중 하나가 즉답하지 못했다는 데 있음  
  요즘은 LLM으로 이런 문제들의 증명을 만들어 보며 벤치마크처럼 쓰고 있고, 새 모델이 나올 때마다 몇 개씩 더 풀리고 있음
  - 수학자들 반응을 보면, 이번 **Erdős 증명**은 꽤 특별한 이정표처럼 보임  
    이전에도 여러 전문 수학자가 들여다본 문제였고, 나온 증명이 놀랍고 우아했으며 새로운 연결까지 보여줬다고 함  
    이전 ChatGPT의 Erdős 문제 풀이들은 대체로 덜 인상적이었고, 문헌 탐색에 가깝거나 비교적 쉬운데 방치된 문제를 푸는 수준에 더 가까워 보였음  
    프롬프트를 읽어보면 `비정형적이어도 좋다`는 식으로 밀어준 게 성공에 한몫했는지도 궁금해짐  
    [1] [https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c](<https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c>)
  - 기사에서 다루는 건 **기존 미해결 문제**를 푼 사례라서, 당연히 더 어려운 축에 속함

- 실제 대화는 이 프롬프트였음  
  인터넷 검색은 하지 말고, **number theory and primitive sets** 문제에 대해 자명하지 않고 새롭고 창의적인 증명이나 반증을 만들어 보라고 했음  
  완전한 unconditional proof 또는 disproof를 요구했고, 그런 주장은 비평범하고 창의적인 요소가 필요할 수 있다고 다시 강조했음  
  그리고 `Thought for 80m 17s`가 붙어 있었음  
  [https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c](<https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c>)
  - **5.5 Pro, Extended Thinking**으로 돌려보니 17분 만에,  
    제안된 bound가 맞고 상수 1이 sharp하다고 하면서  
    `w(a)= 1/alog(a)`와 `uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))`를 증명하겠다고 내놨음  
    요청받은 `1+o(1)`보다 더 강한 결론이라고 주장했음  
    [https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec](<https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec>)
  - 내 경우엔 **Pro**로 20분 걸렸음  
    [https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99](<https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99>)  
    다만 이게 정말 맞는 증명인지는 판단할 수 있을 만큼 수학에 밝지 않음
  - 같은 프롬프트를 **free plan**으로 해봤는데, 결과가 한참 못 미쳤음

- 과학 발전은 종종 한 분야의 기법 X를 다른 분야의 문제 Y에 가져다 쓰면서 일어났고, LLM은 이런 **분야 간 연결**에 인간보다 강한 듯함  
  한 사람이 알 수 있는 것보다 훨씬 많은 이론과 접근법을 알고 있고, 동료들 앞에서 바보처럼 보일까 걱정할 필요도 없기 때문임
  - 내가 생각하는 **reasoning**도 바로 이런 것임  
    지식을 일반화하고 다른 도메인에 적용하는 능력임
  - 지적 작업의 상당수는 사실 **intellectual labor**에 더 가깝고, 여러 정보를 한곳에서 조합하는 일임  
    이 작업에서는 LLM이 인간보다 훨씬 잘하며, 사람들이 전통적으로 이걸 창의성으로 잘못 분류해온 면도 있어 보임
  - 실제로 나도 이런 식으로 써보고 있음  
    엄청난 돌파구를 만들었다고는 못 하겠지만, 백서로 써볼 만한 통찰 같은 건 몇 번 얻은 느낌임  
    여러 분야를 가로질러 상관관계를 붙여보는 과정 자체가 LLM 실험으로서 꽤 재미있음
  - 문명은 **left-brained/sequential/language based** 방식으로 크게 밀어왔고, 컴퓨터와 AI는 그 정점처럼 보임  
    나도 어릴 때는 페이지 전체를 한꺼번에 읽는 식이었다가 어느 순간 단어별·줄별 읽기로 바뀌었고, 그 모드가 굳어졌음  
    대학 시절 한때는 내 수학 전공 영역에서 좀 더 깊고 넓고 비선형적인 인식이 열린 적도 있었는데, 그게 좌뇌 숙련인지 우뇌가 더 붙은 건지는 잘 모르겠음  
    LLM은 이런 순차적 사고에서는 분명 우리를 앞지를 것이고, 그러면 인간은 남은 **right-brainness** 쪽으로 더 밀고 들어가야 하는지, 아니면 AI가 거기까지도 더 빨리 도달할지 궁금해짐
  - 한 분야의 기법을 다른 분야에 적용하는 대표적인 예를 보려면 **Langlands project**를 찾아보면 됨

- **AI**는 내가 제일 좋아하는 이상한 협업자임

- 어떤 Erdős 문제들은 나중에 개발된 **정교한 기법**을 쓰면 사실상 거의 자명해지기도 함  
  내 교수 중 한 명은 Erdős와 공저한 사람이었는데, 한동안 미해결이던 Erdős 문제를 학부생 퀴즈 문제로 낼 수 있었다며 무척 자랑했음
  - 이런 점에서 하나 덧붙이자면, 이미 그 문제들을 LLM에 거의 다 돌려본 상태임  
    그래서 이번 사례는 모델이 실제로 더 강해졌다는 증거로 보임  
    이전 세대 LLM은 이 문제를 못 풀었기 때문임
  - Tao 말로는 이 문제에 대한 **기존 정석 접근**은 막다른 길처럼 보이지만, 동시에 너무 당연해서 누구나 먼저 해보는 첫 단계였다고 함  
    그래서 이번 결과가 더 희망적으로 보임  
    비슷한 문제들에도 평가해볼 만한 새로운 접근선이 생겼기 때문임

- 이쯤 되면 **GitHub repo** 하나 만들어서, 미해결 **dry lab** 문제를 왕창 넣어두고 새 모델이 나올 때마다 전부 돌려보는 harness를 만들면 좋겠음
  - 실제로 **Terence Tao**와 다른 수학자들이 그런 저장소를 운영 중이고, LLM으로 해법을 찾으려 actively 쓰고 있음  
    [1] [https://github.com/teorth/erdosproblems](<https://github.com/teorth/erdosproblems>)
  - 그게 말 그대로 **Erdős problems** 자체임  
    이 글도 그중 하나가 풀렸다는 이야기임

- `ChatGPT의 증명 원문은 사실 꽤 형편없었고, 전문가가 걸러서 무슨 말을 하려는지 이해해야 했다`는 구절을 보니, 수학 논문 읽을 때 늘 드는 감정과 똑같음

- 이 문제가 **60년 된 문제**라면, 사실은 이미 간접적으로 풀려 있었고 모델이 여러 정보를 교차해 찾아낸 가능성도 있지 않나 싶었음  
  사이트를 보니 인간이 예전에 논의한 흔적은 거의 없고 최근 댓글도 GPT가 발견했다는 이야기뿐이라 더 그렇게 느껴졌음  
  60년 된 문제라면 더 오래된 토론이 있을 줄 알았는데, 내가 뭘 놓치고 있는지 궁금함  
  그래도 훌륭한 발견이고, 비슷하게 GPT로 다시 확인해볼 만한 문제들이 더 있을 듯함

- 인간도, 그리고 인간이 만든 기계도 대개는 **축적적 방식**으로 문제를 품  
  기존 토대 위에 계속 쌓아 올리다 보니, 바퀴를 다시 만들기 싫어하는 성향 때문에 사고방식에 갇히기 쉬움  
  그래서 순진한 LLM이 전문가들이 시도하지 않았던 접근을 냈다고 해도 그리 놀랍지는 않음  
  LLM은 이런 제한된 경우에 **다른 접근법**을 던져주는 역할로 꽤 유용할 수 있고, 꼭 정답일 필요도 없이 대안을 제시해 판을 흔들어주면 됨  
  다만 이 Erdős 문제가 실용적으로 무슨 가치가 있는지는 잘 모르겠음  
  LLM이 쓸모없는 물건이 아니라는 증거냐고 묻는다면, 그건 1928년에 숫자론에 수백만 달러를 투자해야 하냐고 묻는 것과 비슷하게 들림  
  당시라면 대답은 `아니오, 그리고 내 사무실에서 나가라`였을 것 같음
