안녕하세요.
개인적으로 개발 중인 오픈소스 라이브러리인
"@manifesto-ai/core" 를 실증하기 위한
AI-native task 관리 데모(TaskFlow) 를 공유해봅니다.

TaskFlow는 하나의 완성된 프로덕트라기보다는,
"@manifesto-ai/core" 에서 제안하는 실행 모델이
실제 앱에서 어떻게 작동하는지를
보여주기 위한 데모 애플리케이션입니다.

이 프로젝트에서 실험한 핵심 구조는 다음과 같습니다.

  • LLM은 자연어 → Intent 해석만 담당
  • 실제 상태 변경은 명시적인 Runtime 규칙(Effect) 이 수행
  • 모든 결과는 Snapshot 으로 기록되어 재현·검증·스트리밍 가능

즉, "LLM이 직접 상태를 조작하는 에이전트" 가 아니라
LLM은 컴파일러처럼, 실행은 시스템이 담당하는 구조를 실증하고자 했습니다.

왜 이런 구조를 실험했나

기존 agent 패턴에서는 다음과 같은 문제가 있었습니다.

  • 상태 전이가 LLM 내부 reasoning에 묻히고
  • 실행 결과의 재현이 어렵고
  • 정책 변경이나 디버깅이 힘들다는 한계를 느꼈습니다.

그래서 의미(Intent)와 실행(Effect)을 분리한 runtime 중심 구조가
실제로 유효한지 확인해보는 PoC를 만들었습니다.

데모에서 볼 수 있는 것

  • 자연어로 task 생성 / 수정 / 조회 / View 제어 등 자연스러운 인터렉션
  • Intent → Effect → Snapshot 실행 흐름
  • SSE 기반 스트리밍 응답
  • React + Zustand 기반 UI projection

링크

아직 연구/실험 단계의 프로젝트라 미완성인 부분도 많습니다.
구조나 방향성에 대한 피드백, 비판 모두 환영합니다 🙇‍♂️