2P by eggplantiny 20시간전 | ★ favorite | 댓글 2개

상태 머신을 기반으로 한 결정론적 LLM 에이전트 아키텍처를 실험적으로 구현한 데모입니다.

모든 사용자 상태는 서버가 아닌 브라우저의 IndexedDB에 저장되며,
LLM은 실행이나 상태 변경이 아니라 사용자 입력을 의도로 해석 및 분류하는 단계에만 사용됩니다.

데모 환경에서는 하루 최대 30회까지 서버에서 LLM 호출을 제공하여
별도 설정 없이 바로 사용해볼 수 있습니다.

또한 기억 시스템은 개미 군집 알고리즘에서 착안해,
강화과 감쇠를 통해 기억과 망각이 자연스럽게 발생하도록 설계했습니다.

더 많은 호출이 필요하거나 특정 모델을 사용하고 싶은 경우,
사용자가 직접 API 키를 입력하거나 Ollama 등 로컬 LLM을
선택적으로 연동할 수 있도록 구성했습니다.

아직 연구 및 실험 단계의 프로젝트이며,
"LLM을 얼마나 똑똑하게 만들 것인가" 보다는
LLM이 개입하는 지점을 얼마나 명확하게 제한할 수 있는가에 초점을 맞추고 있습니다.

사용해보시고 편하게 피드백 주시면 감사하겠습니다.
아키텍처의 배경과 설계 의도가 궁금하신 분들은 아래의 백서도 참고하실 수 있습니다.

백서: https://github.com/manifesto-ai/mind-protocol-whitepaper

감사합니다!

귀여운 웹 랭그래프 느낌이군요

귀엽게 봐주셔서 감사합니다!

하지만 제가 이 프로젝트에서 보여주고자 하는건 랭그래프와는 다른
"상태관리" 그리고 거기서 파생되는 "결정론적 계산" 이 2가지 입니다.

여튼 선배님깨서 쉽게 풀어 쓰신것이 제가 지향하고자 하는 방향과 맞습니다.