# Show GN: 상태머신 기반의 결정론적 LLM 에이전트 데모

> Clean Markdown view of GeekNews topic #25710. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=25710](https://news.hada.io/topic?id=25710)
- GeekNews Markdown: [https://news.hada.io/topic/25710.md](https://news.hada.io/topic/25710.md)
- Type: show
- Author: [eggplantiny](https://news.hada.io/@eggplantiny)
- Published: 2026-01-10T12:59:51+09:00
- Updated: 2026-01-10T12:59:51+09:00
- Original source: [mind-protocol.manifesto-ai.dev](https://mind-protocol.manifesto-ai.dev)
- Points: 5
- Comments: 2

## Summary

**상태머신 기반의 결정론적 LLM 에이전트 데모**는 LLM의 역할을 ‘의도 해석’ 단계로만 한정해, 비결정적 동작을 최소화한 실험적 아키텍처를 보여줍니다. 모든 사용자 상태는 브라우저의 IndexedDB에 저장되어 서버 의존성을 줄였으며, **기억 시스템은 개미 군집 알고리즘**을 응용해 강화와 감쇠를 통한 자연스러운 망각 과정을 구현했습니다. 하루 30회까지 서버 호출이 제공되며, 필요 시 로컬 LLM이나 API 키를 직접 연동할 수 있습니다.

## Topic Body

상태 머신을 기반으로 한 결정론적 LLM 에이전트 아키텍처를 실험적으로 구현한 데모입니다.  
  
모든 사용자 상태는 서버가 아닌 브라우저의 IndexedDB에 저장되며,  
LLM은 실행이나 상태 변경이 아니라 사용자 입력을 의도로 해석 및 분류하는 단계에만 사용됩니다.  
  
데모 환경에서는 하루 최대 30회까지 서버에서 LLM 호출을 제공하여  
별도 설정 없이 바로 사용해볼 수 있습니다.  
  
또한 기억 시스템은 개미 군집 알고리즘에서 착안해,  
강화과 감쇠를 통해 기억과 망각이 자연스럽게 발생하도록 설계했습니다.  
  
더 많은 호출이 필요하거나 특정 모델을 사용하고 싶은 경우,  
사용자가 직접 API 키를 입력하거나 Ollama 등 로컬 LLM을  
선택적으로 연동할 수 있도록 구성했습니다.  
  
아직 연구 및 실험 단계의 프로젝트이며,  
"LLM을 얼마나 똑똑하게 만들 것인가" 보다는  
LLM이 개입하는 지점을 얼마나 명확하게 제한할 수 있는가에 초점을 맞추고 있습니다.  
  
사용해보시고 편하게 피드백 주시면 감사하겠습니다.  
아키텍처의 배경과 설계 의도가 궁금하신 분들은 아래의 백서도 참고하실 수 있습니다.  
  
백서: https://github.com/manifesto-ai/mind-protocol-whitepaper  
  
감사합니다!

## Comments



### Comment 49000

- Author: ng0301
- Created: 2026-01-10T19:57:59+09:00
- Points: 1

귀여운 웹 랭그래프 느낌이군요

### Comment 49001

- Author: eggplantiny
- Created: 2026-01-10T21:04:43+09:00
- Points: 1
- Parent comment: 49000
- Depth: 1

귀엽게 봐주셔서 감사합니다!  
  
하지만 제가 이 프로젝트에서 보여주고자 하는건 랭그래프와는 다른  
"상태관리" 그리고 거기서 파생되는 "결정론적 계산" 이 2가지 입니다.  
  
여튼 선배님깨서 쉽게 풀어 쓰신것이 제가 지향하고자 하는 방향과 맞습니다.
