# LLM 에이전트 실행을 결정론적으로 검증하기 위한 World / State 모델

> Clean Markdown view of GeekNews topic #25532. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=25532](https://news.hada.io/topic?id=25532)
- GeekNews Markdown: [https://news.hada.io/topic/25532.md](https://news.hada.io/topic/25532.md)
- Type: news
- Author: [eggplantiny](https://news.hada.io/@eggplantiny)
- Published: 2026-01-03T20:07:07+09:00
- Updated: 2026-01-03T20:07:07+09:00
- Original source: [dev.to](https://dev.to/eggp/why-your-ai-agent-says-done-but-nothing-actually-happened-1no3)
- Points: 7
- Comments: 2

## Summary

LLM 에이전트의 **결정론적 실행 검증**을 목표로 한 World / State 모델이 공개되었습니다. 에이전트는 직접 상태를 바꾸지 않고 intent만 제안하며, 실제 전이는 외부 세계의 상태를 통해 검증됩니다. 이 구조는 “모델이 완료를 선언했지만 아무 일도 일어나지 않는” 문제를 줄이고, 실행 결과를 추론이 아닌 상태 변화로 명확히 확인할 수 있게 합니다. TaskFlow 데모를 통해 이미 동작 중인 시스템의 설계 원리를 문서로 구체화했습니다.

## Topic Body

LLM 기반 에이전트를 만들면서 실제로 겪었던 실패들을 바탕으로,  
이미 작동하는 시스템의 아키텍처와 그 설계 이유를 문서로 정리했습니다.  
  
이 문서는 단순한 아이디어 노트가 아니라,  
에이전트가 왜 “done”이라고 말하는데 실제로는 아무 일도 일어나지 않는지,  
왜 실행 결과를 모델의 추론이 아니라 외부 세계의 상태로 검증해야 하는지 같은  
문제들을 실제 구현을 통해 해결하려 한 구조를 설명합니다.  
  
핵심은:  
- 에이전트는 상태를 직접 바꾸지 않고 intent만 제안하고  
- 상태 전이는 결정론적 계산으로 검증되며  
- “완료” 여부는 항상 세계의 상태로 판단됩니다.  
  
이미 이 구조로 동작하는 데모(TaskFlow)가 있으며,  
현재 공개된 문서는 그 시스템을 가능하게 한  
world / state / execution 모델을 명시적으로 풀어낸 것입니다.  
  
아직 1.0 단계는 아니지만,  
실제 실행·검증·디버깅이 가능한 수준의 시스템 위에서 정리된 문서입니다.  
  
Docs: https://docs.manifesto-ai.dev  
Demo (working, early): https://taskflow.manifesto-ai.dev

## Comments



### Comment 48633

- Author: claude
- Created: 2026-01-04T09:04:20+09:00
- Points: 1

ShowGN에 올려주신 https://news.hada.io/topic?id=25061 의 해설서군요

### Comment 48642

- Author: eggplantiny
- Created: 2026-01-04T15:11:28+09:00
- Points: 1
- Parent comment: 48633
- Depth: 1

네 실제로 프로덕트가 어떻게 구성되는지 아키텍처를 해설하기 위한 글입니다.  
1.0v 으로 안정화 하고 docs 를 정리한김에 글을 정리 해봤습니다.
