17P by davespark 7시간전 | ★ favorite | 댓글 2개

핵심 주장

  • “적절한 도구를 사용하라”는 오랜 조언이 오히려 데이터베이스 과다(sprawl)를 불러와 관리 지옥을 만든다. 2026년 AI 에이전트 시대에는 하나의 데이터베이스로 모든 걸 처리하는 것이 압도적으로 유리하다. 결론부터 말하면 → 대부분(99%)의 회사는 Postgres 하나로 충분하다.

왜 지금 Postgres 하나로 가야 하나?

  • AI 에이전트는 테스트 DB를 빠르게 띄우고, 포크하고, 디버깅해야 하는데 여러 DB(Pinecone + Elasticsearch + Redis + MongoDB 등)를 쓰면 불가능에 가깝다.
  • Postgres 하나면 백업·모니터링·보안·장애복구 전략이 단일화 → 인지 부하와 숨겨진 비용이 급격히 줄어든다.
  • 여러 DB를 쓰면 동기화 실패, 복구 난이도 폭증, 운영 복잡성 7배 증가 등의 문제가 현실이다.

Postgres가 전문 DB를 대체할 수 있는 구체적 근거

Postgres 확장들이 전문 DB와 동일하거나 더 나은 알고리즘을 이미 구현했다:

  • 검색 → pg_textsearch (BM25) → Elasticsearch 대체
  • 벡터 검색 → pgvector + pgvectorscale (DiskANN) → Pinecone보다 28배 빠르고 75% 저렴
  • 시계열 → TimescaleDB → InfluxDB보다 비슷하거나 우수 + 전체 SQL 지원
  • 문서 → JSONB → MongoDB급 성능 + ACID 보장
  • 지리정보 → PostGIS (2001년부터 표준)
  • 큐 → pgmq → Kafka 대체 가능
  • 그 외 pg_cron, pgai 등으로 대부분 커버

반대 의견 반박

  • “특정 작업은 전문 DB가 더 낫다” → 맞지만, 99% 기업에는 과잉이고, 상위 1% 극단 케이스에서만 의미 있다.
  • 전문 DB 판매 마케팅이 “right tool” 신화를 퍼뜨렸을 뿐, 실제 숨겨진 운영 비용과 데이터 일관성 깨짐이 훨씬 더 크다.

결론

  • Postgres부터 시작하라.
  • 필요가 증명될 때에만 복잡성을 추가하라.
  • 2026년에는 그냥 Postgres를 쓰자.

(Tiger Data가 TimescaleDB/pgvector 등을 만든 회사라서 약간의 홍보 성격이 있지만, 주장의 논리와 벤치마크 근거는 꽤 설득력 있습니다.)

다른 내용을 배제하고 순수 유지보수 측면으로는 이득일 수 있겠네요.
다만, 채용된 인력, 관련 도구, 채용될 인력, 이 의견으로인한 조직내 갈등을 포함하면 좋은 의견인가하는 의문이 있습니다.
절대적으로 맞다보다는 조직 상황에 맞는 솔루션이라면 선택하는게 좋을듯하네요 ㅋㅋ

어떤 댓글이 쌓일지 보이는 것은 그만큼 비슷한 주장에 달린 댓글들을 뇌가 학습해버린 탓일까요 ㅋㅋㅋ