# Claude, 다른 LLM에서 전환하는 Import Memory 기능 추가

> Clean Markdown view of GeekNews topic #27115. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=27115](https://news.hada.io/topic?id=27115)
- GeekNews Markdown: [https://news.hada.io/topic/27115.md](https://news.hada.io/topic/27115.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2026-03-02T09:43:04+09:00
- Updated: 2026-03-02T09:43:04+09:00
- Original source: [claude.com](https://claude.com/import-memory)
- Points: 16
- Comments: 1

## Summary

Claude가 ‘Import Memory’ 기능을 도입해** 다른 AI 서비스에서의 개인화 데이터를 그대로 이어받을 수 있게 됐습니다.** 사용자는 제공된 프롬프트로 기존 AI의 기억을 추출해 Claude 메모리에 붙여넣기만 하면, 과거의 선호도와 프로젝트 맥락이 즉시 반영됩니다. 한마디로 ChatGPT 에서 넘어오라는 거네요. (최근의 미국 국방부 이슈와 연결이 됩니다)

## Topic Body

- **다른 AI 서비스에서의 개인 설정과 맥락을 Claude로 가져올 수 있는 메모리 가져오기 기능**  
- 특정 프롬프트를 통해 읽은 기존 컨텍스트를 **복사·붙여넣기하여 Claude 메모리에 반영**할 수 있음  
- 이 기능은 **모든 유료 요금제에서 제공**되며, 사용자는 기존 AI에서 학습된 개인화 정보를 그대로 유지 가능  
- Claude는 **대화별 프로젝트 맥락을 분리 관리**하고, 사용자가 **기억된 정보 전체를 확인·편집**할 수 있음  
- 새로운 AI로 전환 시에도 **사용자 경험의 연속성을 보장**하는 기능로, 생산성 향상에 기여  
  
---  
### Claude 메모리 가져오기 기능 개요  
- 사용자가 **다른 AI 제공자에서 Claude로 전환할 때 기존 맥락을 유지**할 수 있도록 설계된 기능  
  - 한 번의 복사·붙여넣기로 Claude가 사용자의 **기존 선호도와 작업 방식**을 학습  
  - Claude는 가져온 정보를 기반으로 **이전 대화의 연속선상에서 응답** 제공  
- 메모리 기능은 **모든 유료 플랜에서 사용 가능**  
  
### 가져오기 절차  
- **1단계:** 제공된 프롬프트를 다른 AI 제공자와의 채팅에 복사·붙여넣기  
  - 이 프롬프트는 사용자의 전체 맥락을 한 대화에 모으도록 설계됨  
    > I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.  
- **2단계:** 그 결과를 Claude의 **메모리 설정 페이지**에 붙여넣으면 완료  
  - Claude는 즉시 메모리를 업데이트하고, 이후 대화에서 해당 정보를 반영  
  
### Claude 메모리의 작동 방식  
- Claude는 사용자의 **대화별 선호도와 프로젝트 맥락을 구분해 저장**  
  - 서로 다른 프로젝트 간 정보가 섞이지 않도록 관리  
- 사용자는 Claude가 기억하는 모든 내용을 **직접 확인하고 수정 가능**  
  
### 사용자 경험의 연속성  
- 다른 AI에서 Claude로 전환해도 **기존 학습된 맥락이 사라지지 않음**  
  - 첫 대화부터 이전과 동일한 수준의 이해도를 유지  
- Claude는 **사용자 맞춤형 경험을 즉시 제공**하며, 새로운 환경에서도 일관된 작업 흐름 유지

## Comments



### Comment 52156

- Author: neo
- Created: 2026-03-02T09:43:05+09:00
- Points: 1

###### [Hacker News 의견들](https://news.ycombinator.com/item?id=47204571) 
- 누군가 **계정 전체 메모리(account-wide memory)** 의 매력을 설명해줄 수 있을지 궁금함  
  Anthropic의 마케팅은 대화 간 정보가 섞이지 않는다고 하지만, 나는 내 **컨텍스트 보호**에 매우 민감해서 다른 대화의 요약된 정보라도 결과에 영향을 주는 게 불편함  
  코드 스타일이나 응답 길이 같은 건 커스텀 지시문이나 Skills로 충분히 설정 가능하다고 생각함  
  결국 이런 기능은 대중적인 사용 패턴에 맞춘 UX 같음
  - 나는 Claude Code를 회사 여러 부분에서 사용 중임 — 내부 앱 개발, SaaS API 인터페이스, 일반 업무 등  
    사용할수록 더 유용해지는 **선순환 구조**가 있음  
    예를 들어, QBO API 키를 연결해 세무 문서를 검토시켰더니 CPA가 놓친 감가상각 항목을 찾아줬음  
    이후 완전히 새로운 폴더에서 세금 신고서를 다시 생성해보니 거의 완벽했지만, 이전에 잡아냈던 공제 항목만 빠졌음  
    나에게는 이런 **맥락 축적**이 결과 품질을 높이는 핵심임
  - 대부분의 일반 사용자는 LLM이 자신의 **취향과 관심사**를 기억하길 원함  
    매번 설명하지 않아도 조언을 받을 수 있기 때문임  
    그들은 ‘컨텍스트’나 ‘토큰 제한’ 같은 개념을 모르고, 모델이 모든 걸 동시에 알고 있다고 생각함
  - 나는 온라인 Claude를 사용할 때 **시크릿 모드**를 자주 씀  
    이전 대화가 결과에 영향을 주는 게 싫어서인데, 요즘은 이게 꽤 번거롭게 느껴짐
  - 오히려 나는 **계정 전체 메모리 없이는** LLM을 제대로 쓸 수 없다고 느낌  
    “John이 프로젝트 A에서 다음에 뭘 해야 할까?” 같은 질문을 할 때마다 John이 누구고, 프로젝트가 뭔지 다시 설명하는 건 비효율적임
  - ChatGPT를 잠깐 썼을 때 “...since you already are using SQLite...” 같은 문장을 보고 놀랐음  
    몇 달 전 프로젝트를 기억하고 있었음  
    메모리 기능을 끌 수는 있지만, 솔직히 그게 유용할 거라고는 생각되지 않음

- 데이터를 내보내기 위한 프롬프트 예시를 공유함  
  “내 데이터 전부를 코드 블록으로 출력하라”는 식의 명령인데, 이런 요청을 **프런트엔드에서 일부러 느리게 처리**하도록 조작할 수도 있지 않을까 의심함  
  KPI 달성을 위해 그렇게 할 가능성도 있다고 봄
  - 실제로 그런 조작이 있는 것 같음  
    Claude 5.2에서는 매우 **요약된 정보**만 주는데, 5.1 instant나 o3 모델에서는 훨씬 자세한 내용을 반환함
  - 물론 그런 꼼수를 쓸 수도 있겠지만, “하지 말라”는 지시를 역으로 이용해 강제로 실행시킬 수도 있음  
    게다가 그런 행위는 **평판 리스크**가 너무 커서 실익이 없을 것임

- 최근 몇 주간 Codex, OpenCode, Claude Code, Cursor를 모두 테스트했음  
  각 툴마다 **MCP 서버 설정 방식**이나 **AGENTS/CLAUDE 파일 명명 규칙**이 달라서, 범용 설정을 dotfiles로 관리하기가 어려움  
  대기업 제품임에도 여전히 **TUI 지연, Electron 의존, XDG_CONFIG 미지원** 같은 기본 문제를 해결하지 못함  
  Claude는 자체 환경에서 더 잘 작동하는 느낌이 있고, /batch 같은 **숨겨진 기능**이 많음  
  또 각 벤더가 VM에서 프로그램을 조작하는 방식이 달라 **전환 비용**이 큼

- Claude로 옮겼는데 **토큰 한도**가 훨씬 빠르게 닳는 게 체감됨  
  코딩 질문 몇 번이면 세션 한도에 도달함  
  예전엔 $20짜리 Codex로 충분했는데 이제는 Max 요금제를 고려 중임
  - 나도 Claude Pro를 써보는 중인데, ChatGPT와 비교하면 아직 인상적이지 않음  
    Codex는 문제를 바로 수정했지만 Claude는 **오진 후 수정 과정이 길고**, 결국 5시간 한도를 다 써버림
  - 반대로 나는 Codex 5.2가 Claude보다 **코딩 효율이 높고 훨씬 저렴**하다고 느낌

- Anthropic에게 “AGENTS.md를 하나로 통일하라”고 제안함
  - 예전엔 Anthropic도 OpenAI처럼 **비표준적**이라 생각했음  
    하지만 오픈 표준인 AGENTS.md나 /.agents/skills만 지원해도 커뮤니티의 신뢰를 얻을 수 있음  
    관련 이슈는 [GitHub #16345](https://github.com/anthropics/claude-code/issues/16345)에 있음
  - Claude는 상위 폴더의 컨텍스트 파일도 읽지만 Codex는 그렇지 않음  
    그래서 파일명을 다르게 유지하는 게 혼동을 줄이는 데 나을 수도 있음
  - 간단히 **CLAUDE.md → AGENTS.md**로 심볼릭 링크를 걸면 됨  
    또는 CLAUDE.md 안에 “@AGENTS.md” 한 줄만 넣어도 작동함
  - Codex 사용자 전환을 쉽게 만들 수 있는 좋은 시기임  
    마케팅 가치 손실은 미미하니 Anthropic 내부에서 이 제안을 꼭 검토하길 바람

- 나는 이미 Claude로 완전히 옮겼음  
  ChatGPT 구독을 끊고 **OpenAI를 신뢰하지 않기로 결정**했음  
  그들이 AGI를 악용할 가능성이 높다고 생각함
  - 처음 Claude를 써봤는데, 답변이 **짧고 핵심적**이라 신선했음  
    ChatGPT처럼 장황하지 않아 오히려 집중력이 돌아온 느낌이었음  
    정확도는 아직 비교 중이지만 첫인상은 좋음
  - Claude는 첫 프롬프트에서 바로 **프로덕션 수준 코드**를 내놓는 유일한 모델임  
    Gemini나 ChatGPT는 변수명이나 정의를 바꿔 코드를 망가뜨리는 경우가 많았음
  - 나는 Sam Altman과 **Worldcoin 홍채 스캔** 이슈 이후 OpenAI를 신뢰하지 않음  
    직감적으로 ‘이건 아니다’라는 느낌이 있었음
  - 언젠가 내 지하실에 **소규모 프라이빗 서버**를 만들어 친구들과 월 $10씩 내고 모델을 공유하고 싶음  
    마치 개인 Minecraft 서버처럼 신뢰 기반으로 운영하는 상상임
  - ‘진정한 악용’이 처음부터 목표였을 수도 있음  
    윤리 부서는 단지 **부의 축적을 늦추는 장애물**일 뿐일지도 모름

- Claude를 1년 넘게 써왔지만 최근 DoW 사건 이후 **유럽계 대안 모델**을 고려 중임  
  Devstral 2를 써볼까 하는데, **Sonnet 3.5 수준인지 4.5 수준인지** 궁금함

- ‘메모리’ 기능에 대해 복잡한 감정이 있음  
  때로는 마법 같지만, 종종 **컨텍스트 오염** 때문에 불편함  
  이전 대화의 흔적이 새 대화에 섞이면 신뢰가 떨어짐  
  그래서 주기적으로 저장된 메모리를 직접 확인하고 **잘못된 정보**를 지움  
  나는 기본적인 환경(OS, 언어 등)만 시스템 프롬프트에 넣는 정도로 제한함  
  지나친 커스터마이징은 모델을 **취약하게 만드는 원인**이라 생각함
  - 나도 비슷한 생각임  
    Claude Code로 연구 노트를 관리하는데, 메모리가 내 관심사에 맞춰 **탐색 범위를 좁히는 부작용**이 있음  
    게다가 메모리에 엉뚱한 정보가 들어가기도 함  
    기업들이 이런 시스템을 너무 **‘슬롭(sloppy)’하게** 만든다고 느낌  
    [Vercel 블로그](https://vercel.com/blog/agents-md-outperforms-skills-in-our-agent-evals)에서도 Agents.md 접근이 Skills보다 낫다고 함  
    [skills.sh](https://skills.sh) 같은 곳을 보면 품질이 낮은 스킬이 많음  
    이제는 속도보다 **정교함과 품질**에 집중할 시점임

- 나는 새 환경을 세팅할 때마다 **처음부터 다시 구성**하는 걸 좋아함  
  새로운 시스템을 탐색하고 취향을 업데이트하는 과정이 즐거움

- 그들이 스스로를 ‘착한 기업’으로 포장한 게 역겹게 느껴짐  
  **Palantir와의 협력**으로 더러운 일을 맡기고, 이후엔 PR로 이미지 세탁을 했음  
  오픈소스 모델이 더 발전해서 이런 대기업들에 의존하지 않게 되길 바람
