“니 플랫폼 써도 되니까, 일은 우리한테 맡겨” 전략

v0.2.0 업데이트 안내드립니다.

이번 버전의 핵심은 설치 허들 제거와 실사용성 개선입니다.

원터치 Ollama 통합 - 설치 여부 자동 감지 → 없으면 OS별 자동 설치 → 임베딩 모델 자동 풀링까지 한 번에. docker compose up 한 줄이면 로컬 LLM 포함 전체 스택이 올라갑니다.

멀티턴 대화 - 이전 버전은 단발성 질의만 가능했는데, 이제 문맥을 유지하면서 연속 대화가 됩니다.

보안 패치 10건+ - FTS5 SQL 인젝션, 경로 순회, OAuth state 고정 공격, ReDoS 등 커뮤니티 피드백 + 자체 감사로 잡아낸 것들 일괄 수정했습니다.

그 외: .env 자동 로딩, 모델 연결 실패 시 3회 재시도 + 구체적 에러 메시지, 플러그인 API 문서 전면 확장.

릴리즈 노트: https://github.com/joungminsung/OpenDocuments/releases/

저도 실무 경험 상 고객들은 CSV 보단 엑셀을 더 선호하는 경향이 있는 것 같아요
제 경우도 그렇고 확실히 수요는 있을 것 같습니다

Max 100 인데, 시작 하자마자 토큰 한계 도달했네요 ㅠ

claude code만큼 툴링을 개선해주면 좋긴 할텐데
자기네들은 단일 작업은 잘하고 오케스트레이션은 부족하다 이런걸 인정하는 느낌이군요

codex 호출하려고 claude 토큰도 나가는거 아닌가요..ㅋㅋ

당장은 개발 진입장벽이 낮아진게 제일 큰 혁신같아요.

흥미로운 접근이네요. 클로드를 더 쓰라는건지 말라는건지 ㅎㅎ

OpenAI 직원이 직접 만들어서 공개했어요. "We love an open ecosystem!"
https://x.com/dkundel/status/2038670330257109461
진짜 웃긴건, 클로드 코드한테 이 플러그인 리뷰해 달라고 했더니 "really well-engineered plugin"이라고 칭찬해줬다고..

조금더 팁을 드리자면 소형 llm 모델을 sft(ntr) 튜닝을 통해서 특정 도메인 특화로 만드는 것입이나 그것들은 로컬에서 돌리고 api 는 대형 언어모델 하나만 사용 하고요! 7B 나 3B 정도 되는 것들 특정 분석용 으로 특화하면 좀더 좋은 결과가 나옵니다. 아! sft(ntr) 할땨 ai hub 적극 이용하시면 데이터셋 만들기 편합니다. ( 저도 비슷한걸 만들어 본적이 있어서요 ^^;)

실제로 많은 효과를 봤던 방법인데 이렇게 다 정리가 돠어있네요

slowandsnow | 15시간전 | parent | on: 하루에 코딩은 4시간이 한계인 이유 (newsletter.techworld-with-milan.com)

코딩은 하루 한시간이면 충분하다고 봐요. ai 이전에도 코딩을 하는 시간은 사실 얼마 안됐는데 이젠 더더욱 줄었죠.

맨 아래 github 링크 뒤에 %E2%80%8B (zero-width space) 가 많이 붙네요.
js .replace(/\u200b/g, '')

flags 링크 앞에 // 이 걸려서 제대로 안넘어가네요.
scheme 에 chrome 정도는 넣어줘도 괜찮을 듯 합니다.

극단주의자, 사이비 등등이 소외된 사람들과 우울증 환자들을 먹잇감으로 삼는다는 것을 생각해 보면
그런 상황에 처하게 만든 주범인 주변인들이나 인터넷의 이상한 사람들에게 부정적인 영향만 받는 것보다 차라리 LLM의 상담을 받는 게 나을 것 같네요.

말씀하신 것처럼 엑셀은 약 104만 행의 최대 행 수 제한이 있어, 대용량 데이터의 경우 CSV가 더 적합한 선택일 수 있고, 저 역시 CSV를 선호하는 편입니다.

다만, 내보내기 기능을 요청해 주셨던 분들 대부분이 엑셀 포맷을 선호하시다보니, 그 과정에서 반복적인 코드 작성과 OOM 문제를 줄이고자 시작한 프로젝트입니다.

의견 감사합니다!

엑셀에 최대 행수가 있어서
대용량일경우 csv가 낫지않나요