10P by GN⁺ 1일전 | ★ favorite | 댓글 3개
  • 대부분의 사람들은 AI를 콘텐츠 생성 도구로 사용하지만, 실제 강점은 방대한 정보를 읽고 연결하는 능력에 있음
  • 개인의 노트, 회의 기록, 아이디어 등 축적된 데이터를 AI가 소비하고 패턴을 찾아내는 과정이 핵심
  • Obsidian 노트와 AI를 연동해 과거 기록에서 통찰을 추출하며, 잊었던 사고 변화나 반복된 설계 결정을 발견
  • AI는 키워드가 아닌 개념 기반 검색, 시간을 초월한 패턴 탐색, 아이디어 간 연결을 가능하게 함
  • 인간의 경쟁력은 경험에 있으며, AI는 이를 검색 가능한 지식 자산으로 전환해 지속적 학습과 의사결정 향상을 지원

창조의 함정

  • 대부분의 사용자는 AI를 이메일 작성, 보고서 생성, 코드 작성 등 생산성 도구로 사용
    • 이는 슈퍼컴퓨터를 타자기로 쓰는 것과 같은 낭비로 표현됨
  • 작성자는 3년간의 엔지니어링 노트, 500개 이상의 회의 기록, 수천 개의 관찰을 Obsidian에 저장
    • 인간은 평생 읽지 못할 양이지만, AI는 이를 몇 초 만에 소비

소비의 전환점

  • AI를 Obsidian에 연결한 후 질문 방식이 “새로운 것을 써줘”에서 “이미 발견한 것은 무엇인가?” 로 전환
  • 실제 사례
    • 최근 50회의 1:1 미팅 패턴 분석에서 성과 문제 발생이 도구 불만보다 2~3주 앞섰음을 발견
    • 기술 부채에 대한 사고 변화를 추적해 2023년 3월경 “수정 대상”에서 “시스템 진화의 정보”로 관점이 바뀐 시점을 확인
    • Buffer API와 carpeta.app 아키텍처 비교에서 12개의 반복 설계 결정을 찾아냄

지식의 축적과 접근성

  • 모든 회의, 생각, 디버깅 경험이 학습을 제공하지만, 검색 불가능하면 무의미한 지식으로 남음
  • 기존 검색은 정확한 단어 기억이 필요하고, 인간의 기억은 한계가 있음
  • AI는 이를 극복해
    • 개념 기반 질의,
    • 수년간의 패턴 탐색,
    • 시간·맥락을 초월한 아이디어 연결을 가능하게 함
  • 인간의 제약은 창조가 아니라 소비·기억·연결 능력의 부족에 있었음

소비 시스템 구축

  • 단순한 구성
    • 모든 기록을 Obsidian에 저장
    • AI가 전체 데이터에 접근
    • 과거의 자신에게 연구 조교처럼 질의
  • 핵심은 도구가 아니라 사고방식의 전환
    • AI를 창조자가 아닌 경험의 독자로 인식해야 함
    • 모든 노트가 미래의 통찰, 모든 반성이 검색 가능한 지혜로 변환

복리 효과

  • 두 달간의 실험 결과
    • 과거 유사 사례를 찾아 문제 해결 속도 향상
    • 잊었던 맥락을 복원해 의사결정 품질 개선
    • 시간에 흩어진 보이지 않던 패턴 인식 가능
  • 대부분의 사람들은 노트, 파일, 기억 속에 묻힌 통찰의 금광을 보유
    • AI는 이를 질의 가능한 개인 전문 지식 데이터베이스로 전환

진정한 혁명

  • 여전히 많은 이들이 AI를 글쓰기·코드 생성 도구로만 인식
  • 진짜 혁명은 AI가 인간의 모든 생각을 읽는 독자로 기능하는 데 있음
  • 따라서 오늘날의 지식 기록은 미래의 자신과 AI를 위한 문서화 행위가 되어야 함
    • “잊은 것을 기억하게 하는 AI”를 위해 지속적 기록 습관이 필요함

결국 텍스트로 하는 회귀분석

모델은 혼자서는 평범한 독자 수준임 중요한 부분을 놓치기 쉽지만, 테스트·컴파일러·린터 같은 도구와 결합하면 빠른 피드백 루프를 가진 창조 도구로 변함

이게 와닿네요 이렇게 해본 적이 없는데 해봐야겠습니다.

Hacker News 의견들
  • 나는 AI의 정보 소비 능력이 가장 무서운 부분 중 하나라고 생각함
    NSA나 대기업들이 이미 우리의 브라우징 패턴을 수년간 수집해왔는데, AI가 그 데이터를 인간보다 훨씬 빠르게 분석하고 행동 예측이나 조작, 심리 프로파일링, 취약점 식별 등에 활용할 수 있음이 우려됨
    그런데도 일부 사람들은 AI가 쓸모없는 기술이라고 비판하는 걸 보면 아이러니함

    • 설령 AI가 쓸모없다고 해도, 이런 용도로는 여전히 사용될 것임
      이런 일을 하는 사람들에게 자신감 착각을 주기 때문임
    • “Worthless”라는 표현은 모호함
      AI가 무가치(valueless) 할 수는 있지만, 무용(useless) 하지는 않음
      지뢰도 쓸모는 있지만 가치가 없듯이, 생성형 AI도 외부효과 측면에서 비슷한 논쟁이 있음
    • 사실 이런 데이터 분석은 10년 전의 ML 기술로도 가능했음
      생성형 AI가 꼭 필요한 건 아님
    • 초지능이나 창의성 논의보다 더 걱정되는 건 감시 사회화
      이미 도시는 수많은 카메라로 뒤덮여 있고, 지금은 사람이 모든 영상을 감시할 수 없다는 점이 일종의 안전장치 역할을 하지만, AI는 그 장벽을 허물 수 있음
      가까운 미래에는 “빨간 Nissan이 지나가면 알려줘” 같은 자연어 기반 감시 시스템이 등장할 것 같음
    • 인간은 너무 복잡해서, NSA나 기업 데이터로도 행동 예측 정확도는 여전히 낮을 가능성이 있음
  • 모델은 혼자서는 평범한 독자 수준임
    중요한 부분을 놓치기 쉽지만, 테스트·컴파일러·린터 같은 도구와 결합하면 빠른 피드백 루프를 가진 창조 도구로 변함
    진짜 어려운 일은 여전히 “무엇을 주장할지”를 정하는 것임
    이 내용은 HackerNewsAI 뉴스레터에도 실릴 예정임

    • AI에는 우리가 모르는 가드레일이 적용되어 있음
      예를 들어 태양광 에너지 얘기를 하자 정치적 주제로 오인해 대화가 막혔던 적이 있음
    • Google은 이미 오래전부터 특허와 SEC 문서를 읽고 인덱싱해왔음
      일부 분야에서는 변호사보다 빠르게 문서를 읽는 시스템이 존재함
  • AI가 내 데이터를 몇 초 만에 읽는다고 해도, 정확성 검증은 불가능함
    요약이 아니라 단순 축약(abbreviation)에 불과하다는 연구도 있음
    예시처럼 “50번의 1:1 미팅에서 패턴을 찾았다”는 결과도 실제로는 일부 데이터에만 해당될 수 있음

    • 관련 연구 방법론을 알고 싶음
      사실 검증이 어려운 문제일 때만 위험함
      LLM을 탐색 도구로 쓰고, 통찰은 인간이 도출해야 함
    • 인간도 완벽하지 않음
      AI가 인간보다 조금이라도 낫다면 충분히 가치가 있음
    • 검증은 종종 해결보다 빠름
      AI가 제시한 항목을 텍스트 검색으로 확인하면 됨
    • AI는 대량 처리 도구
      컨텍스트 관리가 핵심이고, 완전한 결정론이 아니어도 유용함
    • 모델이 출처를 명시하도록 하면 맹신하지 않고도 쓸 수 있음
  • 나는 개인 문서를 클라우드에 올리기 꺼림
    프라이버시 위험이 너무 커서 로컬 LLM이 발전하길 기다리는 중임

    • 나도 같은 이유로 로컬 모델을 사용함
      30B 모델 정도면 MacBook에서도 요약 가능하지만, 아직 사용성이 떨어짐
    • 나는 유출돼도 괜찮은 문서만 업로드함
      NDA가 있는 비즈니스라면 로컬 모델 외에는 추천하기 어려움
      장비 가격이 비싸지만, 언젠가 PC 중심의 모델 실행 환경으로 돌아올 것이라 봄
    • Apple의 mlx_lm으로 Obsidian 노트를 분석 중임
      Qwen 3 모델을 써봤지만 환각(hallucination) 이 많고 실용적이지 않음
      SOTA 모델도 요약 품질은 비슷할 것 같음
    • LLM을 취미로 쓰는 입장임
      GPU 3개를 사서 로컬 모델을 돌리지만, ROI는 전혀 맞지 않음
      단지 재미있기 때문임
      민감한 키가 없다면 소규모 클라우드 GPU 임대도 괜찮은 선택임
  • 글의 요지는 사고를 기계에 위임하는 것 같음
    나는 노트를 기억과 연관성 중심으로 쓰는데, AI에게 맡기는 건 생각의 포기처럼 느껴짐

    • 반대로, AI는 우리의 생각·노트·경험을 즉각적으로 되살릴 수 있는 기억 장치
      이메일이나 과거 보고서에 묻힌 지식을 다시 꺼내주는 점이 유용함
  • AI의 “초능력” 절반은 이미 Obsidian에 모든 데이터를 정리해둔 것 덕분임
    그 기반이 있으니 어떤 도구든 강력해짐

    • 대부분 사람은 그렇게 꾸준히 기록하지 않음
      그가 노력의 결실을 얻은 건 대단한 일임
  • AI의 진짜 능력은 듣고 싶은 말을 해주는 것
    특히 RLHF 이후 그 경향이 강함
    요약 능력은 여전히 부족하고, 대부분 요약이 아닌 축약에 그침
    LLM은 텍스트를 이어 쓰는 데는 뛰어나지만, 큰 그림 이해에는 약함
    2023년에 말하던 “기하급수적 발전”이 사실이었다면 이런 논쟁조차 없었을 것임

  • 수학 강연 중 모르는 용어를 검색했는데, AI 요약이 꽤 괜찮았음
    원본을 재구성한 것뿐이지만, 그게 바로 내가 원하던 기능이었음

    • 하지만 요약의 검증 가능성이 중요함
      대부분 사람은 빠른 소비를 선호해 깊이 이해하지 못함
    • 나는 저품질 요약이라도 빠르게 개요를 파악할 수 있으면 충분하다고 생각함
    • 의학 용어를 검색했을 때 Gemini가 잘못된 정보와 올바른 정보를 섞어 제공했음
      전문가조차 그대로 믿는 걸 보고 무서웠음
      게다가 Google이 내 프로필에 그 질환을 연관시켰을까봐 찜찜했음
  • AI가 “JS Set이 Array보다 빠르다”고 말해 믿었다가 맥락 누락으로 틀린 걸 깨달은 적 있음
    그럼에도 AI는 낯선 주제의 방대한 자료를 종합하는 데 탁월함
    예를 들어 Lorca와 Cavafy 시를 번역할 때, AI가 원문과 번역상의 어려움을 잘 설명해줬음
    직접 번역을 맡기기보다 보조 도구로 활용했을 때 훨씬 좋은 결과를 얻었음
    자세한 경험은 내 블로그 글에 정리했음