# Thoughtworks Technology Radar, Volume 33 공개

> Clean Markdown view of GeekNews topic #24198. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=24198](https://news.hada.io/topic?id=24198)
- GeekNews Markdown: [https://news.hada.io/topic/24198.md](https://news.hada.io/topic/24198.md)
- Type: news
- Author: [neo](https://news.hada.io/@neo)
- Published: 2025-11-07T10:41:02+09:00
- Updated: 2025-11-07T10:41:02+09:00
- Original source: [thoughtworks.com](https://www.thoughtworks.com/radar)
- Points: 15
- Comments: 0

## Summary

이번 **Technology Radar**는 AI 시대의 개발이 점점 더 **“새로운 기술을 배우는 일”에서 “AI와 함께 일하는 법을 익히는 일”** 로 옮겨가고 있다는 것을 알게 해 줍니다. AI는 더 이상 별도의 기술이 아니라, **플랫폼·언어·도구 전반에 녹아든 기본 전제**가 되었습니다. Radar가 제시하는 ‘도입(Adopt)’의 기준은 여전히 기술의 성숙도를 바탕으로 하지만, 이번 호에서는 그 성숙의 의미가 **AI 환경에서 얼마나 자연스럽게 통합되어 작동하는가**로 확장되고 있음을 느낄 수 있습니다. 결국 2025년의 Radar는 **새로운 기술의 목록**이라기보다, **AI 중심으로 재편되는 개발 문화의 방향을 가리키는 나침반**처럼 읽힙니다.

## Topic Body

- **테크닉/도구/플랫폼/개발언어 및 프레임워크** 분야의 최신 트렌드들을 Adopt(도입 권장), Trial(시험 사용), Assess(평가), Hold(주의) 4단계로 시각화 및 설명  
- 주요 테마 4개: AI 인프라 오케스트레이션, MCP 기반 에이전트 부상, AI 코딩 워크플로우, AI 안티패턴 출현   
  
### AI에 인프라 오케스트레이션 도입  
- AI 워크로드가 조직들로 하여금 훈련과 추론을 위한 **대규모 GPU 플릿 오케스트레이션**을 요구  
  - 단일 GPU의 HBM 용량(80GB) 한계를 넘는 대형 모델이 증가하면서 **분산 훈련과 멀티 GPU 추론**이 필수화됨  
  - 플랫폼 팀은 복잡한 다단계 파이프라인을 구축하고 처리량과 지연시간을 지속적으로 조정  
  - **Nvidia DCGM Exporter**로 플릿 원격측정 수행, **토폴로지 인식 스케줄링**으로 인터커넥트 대역폭이 가장 높은 위치에 작업 배치  
- Kubernetes는 AI 워크로드를 대규모로 관리하는 핵심 기반이지만, **microVM(Firecracker)**, **Uncloud** 같은 대안 플랫폼도 주목받고 있음  
  - **Kueue**를 통한 대기열 및 할당량 관리, **토폴로지 인식 스케줄링(topology-aware scheduling)**, **gang scheduling** 등 GPU 링크 간 빠른 통신을 고려한 배치 전략이 발전 중  
  - NVLink/NVSwitch 같은 고속 GPU 간 링크와 RDMA를 갖춘 연속적 데이터센터 "아일랜드"(랙 또는 파드) 내 멀티-GPU 작업 배치  
- Kubernetes의 최근 **멀티-GPU 및 NUMA 인식 API 개선**이 이러한 역량을 강화하며, 장치 간 대역폭 향상, 테일 레이턴시 감소, 효과적 활용률 증가  
  - AI 코딩 워크플로우 수요 증가와 MCP로 향상된 에이전트가 부상하며 AI 인프라에서 빠른 혁신이 예상됨  
  - **GPU 인식 오케스트레이션**이 기본 요건이 되고 있으며, **토폴로지가 이제 일급 스케줄링 고려사항**으로 부상  
  
### MCP 기반 에이전트 부상  
- **MCP와 에이전트의 동시 부상**, 그리고 이를 중심으로 구축된 프로토콜 및 도구 생태계 확장이 이번 Radar의 주요 주제  
  - MCP가 **에이전트 구동 및 효율적·반자율적 작동을 위한 궁극의 통합 프로토콜**로 자리매김하고 있음  
- 거의 모든 주요 벤더가 MCP 지원을 추가하며, **에이전트 중심 워크플로우**가 빠르게 성장  
- 에이전트 워크플로우의 지속적 혁신이 관찰되며, **컨텍스트 엔지니어링**이 모델의 동작과 자원 효율 최적화의 핵심으로 부상함  
  - **A2A(Agent-to-Agent)**, **AG-UI** 같은 신규 프로토콜이 멀티 에이전트 협업 앱 구축의 복잡도를 낮춤  
  - **AGENTS.md**, **Anchoring coding agents**, **Context7 MCP 서버** 등의 기술이 실제 개발 워크플로우에 채택됨  
- AI 생태계의 특성상 각 Radar마다 새로운 혁신이 폭발적으로 발생   
  — 지난번은 RAG이었고 이번은 **에이전트 워크플로우**와 이를 지원하는 도구, 기법, 플랫폼의 성장하는 집합체(constellation)  
  - 그리고 주목할 만한 **AI 안티패턴**도 일부 등장  
  
### AI 코딩 워크플로우  
- AI가 소프트웨어 구축 및 유지보수 방식을 변화시키고 있으며, 최근 논의에서 지배적인 주제  
  - **레거시 코드베이스 이해를 위한 AI 활용**부터 **포워드 엔지니어링을 위한 GenAI**까지 소프트웨어 가치 사슬 전반에 전략적으로 내재화됨  
  - 코딩 에이전트에 지식을 더 효과적으로 공급하는 방법 학습  
- 팀들은 **AGENTS.md** 파일을 통한 맞춤형 지침 정의, **Context7** 같은 MCP 서버와 통합하여 최신 종속성 문서 가져오기 등 새로운 실천법 실험중  
  - AI가 개별 기여자뿐 아니라 **팀 전체를 증폭**해야 한다는 인식 증가  
  - **큐레이션된 공유 지침**과 **커스텀 명령어**가 공평한 지식 확산 보장을 위해 등장함  
- 도구 환경은 활기차게 진화중:  
  - 디자이너는 **UX Pilot**과 **AI Design Reviewer** 를 활용, 개발자는 **v0**와 Bolt로 **셀프서비스 UI 프로토타이핑** 통한 신속한 프로토타입 제작  
  - **스펙 기반 개발**의 범위, 세분화 수준, 점진적 전달의 단일 진실 공급원 역할 가능성 관련 논쟁 지속  
  - 흥분 속에서도 **AI 생성 코드에 대한 안일함**이 여전히 공통 우려사항으로 남아, AI가 엔지니어링을 가속화할 수 있지만 인간의 판단은 여전히 필수불가결함을 상기  
  
### 새로운 AI 안티패턴 출현  
- 산업 전반의 AI 채택 가속화가 효과적 실천법과 함께 **신흥 안티패턴**도 표면화  
  - **GenAI를 활용한 셀프서비스 일회용 UI 프로토타이핑** 같은 개념의 명확한 유용성 인정하면서도, 조직을 **AI 가속 Shadow IT** 안티패턴으로 이끌 잠재성을 인식  
  - **MCP(Model Context Protocol)** 가 주목받으면서 많은 팀이 **순진한 API-to-MCP 변환** 안티패턴에 빠짐  
- **Text-to-SQL** 솔루션의 효능이 초기 기대에 미치지 못함, **AI 생성 코드에 대한 안일함**이 여전히 관련 우려사항으로 지속  
  - **스펙 기반 개발** 같은 신흥 실천법 내에서도 전통적 소프트웨어 엔지니어링 안티패턴으로 회귀할 위험 존재   
    — 특히 과도한 사전 명세와 빅뱅 릴리스에 대한 편향  
- GenAI가 전례 없는 속도와 규모로 발전하고 있어 **새로운 안티패턴이 빠르게 등장할 것으로 예상**  
  - 팀은 처음에는 효과적으로 보이지만 시간이 지나면서 성능이 저하되고 피드백을 늦추거나, 적응성을 훼손하거나, 책임성을 모호하게 만드는 패턴에 대해 경계 유지 필요  
  
---  
  
### ThoughtWorks Technology Radar Volume 33  
#### [Techniques]  
##### Adopt  
  
**1. Continuous compliance**  
- 소프트웨어 개발 프로세스와 기술이 규제 및 보안 표준을 자동화를 통해 지속적으로 충족하도록 보장하는 실천법  
- [Open Policy Agent](https://www.openpolicyagent.org/) 같은 policy-as-code 도구 통합, CD 파이프라인 내 [SBOM](https://www.cisa.gov/sbom) 생성으로 [SLSA](https://slsa.dev/) 지침에 맞춰 초기 단계에서 규정 준수 문제 감지 및 해결  
- 규칙과 모범 사례를 코드화하면 병목 현상 없이 팀 전체에 일관되게 표준 강제 가능  
- AI 생성 코드에 대한 안일함 위험 증가로 개발 프로세스에 규정 준수 내재화가 그 어느 때보다 중요  
  
**2. Curated shared instructions for software teams**  
- AI를 소프트웨어 전달에 적극적으로 사용하는 팀을 위해 개인 프롬프팅을 넘어 큐레이션된 지침으로 이동  
- [AGENTS.md](https://www.thoughtworks.com/radar/techniques/agents-md) 같은 지침 파일을 프로젝트 리포지토리에 직접 커밋하는 것이 가장 직관적인 구현 방법  
- [Cursor](https://cursor.sh/), [Windsurf](https://codeium.com/windsurf), [Claude Code](https://www.anthropic.com/claude/code) 등 대부분의 AI 코딩 도구가 커스텀 슬래시 명령이나 워크플로우를 통한 지침 공유 지원  
- 프롬프트가 개선되는 즉시 전체 팀이 혜택을 받아 최고의 AI 지침에 일관된 접근 보장  
  
**3. Pre-commit hooks**  
- [Git hooks](https://git-scm.com/book/en/v2/Customizing-Git-Git-Hooks)는 오랫동안 존재했지만 여전히 충분히 활용되지 않음  
- AI 지원 및 에이전트 코딩의 부상으로 실수로 비밀이나 문제가 있는 코드를 커밋할 위험 증가  
- [continuous integration](https://www.thoughtworks.com/continuous-integration) 같은 코드 검증 메커니즘이 많지만, pre-commit 훅은 더 많은 팀이 채택해야 할 간단하고 효과적인 안전장치  
- 비밀 스캐닝 같이 이 워크플로우 단계에서 가장 효과적으로 포착되는 위험에 집중하여 최소화하고 초점을 맞추는 것이 최선  
  
**4. Using GenAI to understand legacy codebases**  
- GenAI를 사용한 레거시 코드베이스 이해가 대규모 복잡 시스템 이해를 크게 가속화  
- [Cursor](https://cursor.sh/), [Claude Code](https://www.anthropic.com/claude/code), [Copilot](https://github.com/features/copilot), [Windsurf](https://codeium.com/windsurf), [Aider](https://aider.chat/), [Cody](https://sourcegraph.com/cody), [Swimm](https://swimm.io/), [Unblocked](https://getunblocked.com/), [PocketFlow-Tutorial-Codebase-Knowledge](https://github.com/PocketFlow/Tutorial-Codebase-Knowledge) 같은 도구가 비즈니스 규칙 표면화, 로직 요약, 종속성 식별 지원  
- 오픈 프레임워크 및 직접 LLM 프롬프팅과 함께 사용 시 레거시 코드베이스 이해 시간 극적으로 단축  
- GraphRAG 같은 고급 접근법의 설정 노력은 특히 분석되는 코드베이스의 크기와 복잡성에 따라 달라지지만, 생산성에 미치는 영향은 일관되고 상당함  
  
##### Trial  
  
**5. AGENTS.md**  
- 프로젝트에서 작업하는 AI 코딩 에이전트에 지침을 제공하는 공통 형식  
- 본질적으로 에이전트를 위한 README 파일이며, Markdown 이외의 필수 필드나 포맷 없음  
- LLM 기반 코딩 에이전트가 인간이 작성하고 읽을 수 있는 지침을 해석하는 능력에 의존  
- 코딩 환경의 도구 사용 팁, 테스트 지침, 커밋 관리를 위한 선호 관행 포함이 일반적 사용  
  
**6. AI for code migrations**  
- 코드 마이그레이션은 언어 재작성부터 종속성이나 프레임워크 업그레이드까지 다양한 형태이며 몇 달의 수동 작업이 필요한 경우가 많음  
- [.NET framework version](https://dotnet.microsoft.com/) 업그레이드 팀이 프로세스 단축을 위해 AI 사용 실험  
- 과거 [OpenRewrite](https://docs.openrewrite.org/) 같은 결정론적 규칙 기반 리팩토링 도구 사용, AI만으로는 비용이 많이 들고 대화가 방황하기 쉬움  
- 전체 업그레이드를 위임하는 대신 컴파일 오류 분석, 마이그레이션 diff 생성, 테스트 반복 검증 같은 더 작고 검증 가능한 단계로 프로세스 분해  
- Google의 대규모 [int32-to-int64 migration](https://research.google/pubs/pub51587/) 같은 업계 사례도 유사한 추세 반영  
  
**7. Delta Lake liquid clustering**  
- [Delta Lake](https://delta.io/) 테이블을 위한 기술로 파티셔닝 및 Z-ordering의 대안 역할  
- 역사적으로 Delta 테이블의 읽기 성능 최적화는 예상된 쿼리 패턴 기반으로 테이블 생성 시 파티션 및 Z-order 키 정의 필요  
- [liquid clustering](https://docs.databricks.com/en/delta/clustering.html)은 지정된 키를 기반으로 데이터를 클러스터링하는 트리 기반 알고리듬 사용  
- 모든 데이터를 다시 쓰지 않고도 점진적으로 변경 가능하여 다양한 쿼리 패턴 지원에 더 큰 유연성 제공  
- [Databricks Runtime](https://docs.databricks.com/) for Delta Lake는 과거 쿼리 워크로드 분석, 최적 컬럼 식별, 그에 따른 데이터 클러스터링으로 자동 liquid clustering 지원  
  
**8. Self-serve UI prototyping with GenAI**  
- [Claude Code](https://www.anthropic.com/claude/code), [Figma Make](https://www.figma.com/), [Miro AI](https://miro.com/ai/), [v0](https://v0.dev/) 같은 도구가 제품 관리자가 텍스트 프롬프트에서 직접 대화형, 사용자 테스트 가능 프로토타입 생성 가능  
- 수동으로 와이어프레임 제작 대신 팀이 몇 분 만에 기능적 HTML, CSS, JS 아티팩트 생성 가능  
- 이러한 "일회용" 프로토타입은 세련됨을 빠른 학습과 맞바꾸어 디자인 스프린트 중 초기 검증에 이상적  
- 더 높은 충실도는 세부 사항에 대한 잘못된 초점이나 프로덕션 노력에 대한 비현실적 기대로 이어질 수 있어 명확한 프레이밍과 기대 관리 필수  
  
**9. Structured output from LLMs**  
- LLM이 JSON이나 특정 프로그래밍 클래스 같은 사전 정의된 형식으로 응답을 생성하도록 제약하는 실천법  
- LLM의 일반적으로 예측 불가능한 텍스트를 기계 판독 가능하고 결정론적인 데이터 계약으로 변환하여 신뢰할 수 있는 프로덕션급 애플리케이션 구축에 필수적  
- 단순 프롬프트 기반 포맷팅과 [model-native structured outputs](https://platform.openai.com/docs/guides/structured-outputs)부터 [Outlines](https://github.com/outlines-dev/outlines) 및 [Instructor](https://github.com/jxnl/instructor) 같은 도구를 사용한 더 강력한 제약된 디코딩 방법까지 접근법 다양  
- 다양한 문서 유형에서 복잡하고 구조화되지 않은 데이터를 추출하여 다운스트림 비즈니스 로직을 위한 구조화된 JSON으로 변환하는 데 성공적으로 사용  
  
**10. TCR (Test && Commit || Revert)**  
- 테스트 주도 개발에서 파생된 프로그래밍 워크플로우로 간단한 규칙을 통해 매우 작고 지속적인 단계 촉진  
- 각 변경 후 테스트가 통과하면 변경 사항이 커밋되고, 실패하면 변경 사항이 되돌려짐  
- 코드베이스 내에서 이 주기를 자동화하는 스크립트만 정의하면 되어 구현이 간단  
- [Kent Beck의 정식 article](https://medium.com/@kentbeck_7670/test-commit-revert-870bbd756864)에서 처음 소개된 TCR은 [YAGNI](https://martinfowler.com/bliki/Yagni.html) 및 [KISS](https://en.wikipedia.org/wiki/KISS_principle) 같은 긍정적 코딩 실천법 강화  
  
##### Assess  
  
**11. AI-powered UI testing**  
- 이전 Radar에서 AI 기반 UI 테스트는 주로 탐색적 테스트에 초점을 맞췄으며, LLM의 비결정론이 불안정성을 야기할 수 있다고 언급  
- [MCP](https://modelcontextprotocol.io/)의 부상으로 [Playwright](https://playwright.dev/) 및 [Selenium](https://www.selenium.dev/) 같은 주요 UI 테스트 프레임워크가 자체 MCP 서버([playwright-mcp](https://github.com/executeautomation/playwright-mcp), [mcp-selenium](https://github.com/modelcontextprotocol/servers/tree/main/src/selenium)) 도입  
- 네이티브 기술을 통한 신뢰할 수 있는 브라우저 자동화 제공으로 코딩 어시스턴트가 Playwright 또는 Selenium에서 신뢰할 수 있는 UI 테스트 생성 가능  
- 최신 Playwright 릴리스의 [Playwright Agents](https://playwright.dev/docs/test-agents) 같은 개발에 흥분하며 더 실용적인 지침과 현장 경험 출현 기대  
  
**12. Anchoring coding agents to a reference application**  
- 과거 [tailored service templates](https://www.thoughtworks.com/radar/techniques/tailored-service-templates) 패턴을 블립했으며, 이는 마이크로서비스를 채택하는 조직이 새 서비스를 부트스트랩하고 기존 인프라와 원활하게 통합하는 데 도움  
- 시간이 지남에 따라 새로운 종속성, 프레임워크, 아키텍처 패턴이 등장하면서 이러한 템플릿과 기존 서비스 간의 코드 드리프트가 증가하는 경향  
- 코딩 에이전트 시대에 우수한 실천법과 아키텍처 일관성 유지를 위해 [anchoring coding agents to a reference application](https://www.thoughtworks.com/radar/techniques/anchoring-coding-agents-to-a-reference-application) 실험  
- [Model Context Protocol (MCP)](https://modelcontextprotocol.io/) 서버가 참조 템플릿 코드와 커밋 diff를 모두 노출하여 에이전트가 드리프트를 감지하고 수리 제안 가능  
  
**13. Context engineering**  
- 추론 중 LLM에 제공되는 정보의 체계적인 설계 및 최적화로 원하는 출력을 안정적으로 생성  
- 프롬프트, 검색된 데이터, 메모리, 지침, 환경 신호 같은 맥락 요소의 구조화, 선택, 순서 지정 포함  
- 프롬프트 문구에만 초점을 맞추는 prompt engineering과 달리 context engineering은 전체 맥락 구성 고려  
- 오늘날 엔지니어는 세 영역으로 그룹화할 수 있는 다양한 개별 기술 사용: Context setup, Context management for long-horizon tasks, Dynamic information retrieval  
  
**14. GenAI for forward engineering**  
- AI 생성된 레거시 코드베이스 설명을 통해 레거시 시스템을 현대화하는 신흥 기술  
- 레거시 코드가 무엇을 하는지(사양)에 초점을 맞춘 명시적 단계 도입하면서 현재 구현 방법을 의도적으로 숨김  
- [spec-driven development](https://www.thoughtworks.com/radar/techniques/spec-driven-development)와 관련되지만 레거시 현대화에 특별히 적용  
- reverse-engineering → design/solutioning → forward-engineering 루프를 따라 인간과 AI 에이전트 모두 구현에 커밋하기 전에 더 높은 수준에서 추론 가능  
  
**15. GraphQL as data access pattern for LLMs**  
- [context engineering](https://www.thoughtworks.com/radar/techniques/context-engineering)을 향상시키는 균일하고 모델 친화적인 데이터 액세스 레이어 생성을 위한 신흥 접근법  
- 모델에 직접 데이터베이스 액세스 권한을 부여하지 않고 구조화되고 쿼리 가능한 데이터 노출 가능  
- 각 사용 사례에 대해 새 엔드포인트나 필터가 필요한 REST API와 달리 [GraphQL](https://graphql.org/)은 모델이 필요한 데이터만 검색 가능  
- 잘 정의된 GraphQL 스키마는 LLM이 사용 가능한 엔티티와 관계에 대해 추론하는 데 사용할 수 있는 메타데이터 제공  
  
**16. Knowledge flows over knowledge stocks**  
- "팀 간 정보 공유 방식을 개선하는 방법"에 대한 질문을 자주 받음  
- 시스템 사고에서 차용한 관점인 [knowledge flows and knowledge stocks](https://commoncog.com/g/knowledge-stock-and-flow/) 개념이 가치 있음  
- 조직의 지식을 시스템으로 보도록 장려 - 스톡은 축적된 지식을 나타내고 플로우는 지식이 조직을 통해 이동하고 진화하는 방식  
- 외부 지식의 플로우를 조직으로 증가시키면 혁신 촉진 경향, [communities of practice](https://www.thoughtworks.com/radar/techniques/communities-of-practice)를 설립하는 것이 플로우를 개선하는 검증된 방법  
  
**17. LLM as a judge**  
- LLM을 판사로 사용하여 다른 시스템(일반적으로 LLM 기반 생성기)의 출력 평가는 생성 AI에서 확장 가능하고 자동화된 평가를 제공할 잠재력으로 주목  
- 새롭게 인식된 복잡성과 위험을 반영하여 이 블립을 Trial에서 Assess로 이동  
- 평가는 position bias, verbosity bias, 낮은 견고성에 취약하며, 더 심각한 문제는 [scaling contamination](https://arxiv.org/abs/2311.01964)  
- 이러한 결함에 대응하기 위해 LLMs as a jury(합의를 위해 여러 모델 사용) 또는 평가 중 chain-of-thought 추론 같은 개선된 기술 탐색  
  
**18. On-device information retrieval**  
- 검색, 컨텍스트 인식, [retrieval-augmented generation (RAG)](https://www.thoughtworks.com/radar/techniques/retrieval-augmented-generation)이 완전히 사용자 장치(모바일, 데스크톱 또는 에지 장치)에서 실행되도록 하는 기술  
- 프라이버시와 계산 효율성 우선시하며 경량 로컬 데이터베이스와 온디바이스 추론에 최적화된 모델 결합  
- 유망한 구현은 [sqlite-vec](https://github.com/asg017/sqlite-vec)(임베디드 데이터베이스 내 벡터 검색 지원하는 SQLite 확장)과 [EmbeddingGemma](https://huggingface.co/google/gemma-2b-embeddings)(Gemma 3 아키텍처 기반 3억 파라미터 임베딩 모델) 결합  
- 로컬 우선 애플리케이션 및 데이터 주권, 낮은 지연시간, 프라이버시가 중요한 기타 사용 사례에 평가 권장  
  
**19. SAIF**  
- [SAIF (Secure AI Framework)](https://blog.google/technology/safety-security/introducing-googles-secure-ai-framework/)는 Google이 AI 보안 위험 관리를 위한 실용적 가이드를 제공하기 위해 개발한 프레임워크  
- 데이터 중독 및 프롬프트 주입 같은 일반적 위협을 명확한 위험 맵, 구성 요소 분석, 실용적 완화 전략을 통해 체계적으로 다룸  
- 에이전트 시스템 구축의 진화하는 위험에 대한 초점이 특히 시의적절하고 가치 있음  
- LLM 사용 및 AI 기반 애플리케이션의 보안 실천법을 강화하는 데 사용할 수 있는 간결하고 실행 가능한 플레이북 제공  
  
**20. Service mesh without sidecar**  
- 사이드카 기반 서비스 메시의 비용과 운영 복잡성이 지속됨에 따라 [Istio ambient mode](https://istio.io/latest/docs/ops/ambient/) 같은 사이드카 없는 서비스 메시 옵션 출현에 흥분  
- Ambient mode는 두 가지 주요 구성 요소 간 관심사 분리하는 계층화된 아키텍처 도입: 노드당 L4 프록시(ztunnel)와 네임스페이스당 L7 프록시(Waypoint proxy)  
- ztunnel은 L3 및 L4 트래픽이 효율적이고 안전하게 전송되도록 보장, 노드의 모든 ID에 대한 인증서 가져오기 및 ambient 지원 워크로드와의 트래픽 리디렉션 처리  
- Waypoints proxy는 선택적 ambient mode 구성 요소로 트래픽 관리, 보안, 가시성 같은 더 풍부한 Istio 기능 활성화  
  
**21. Small language models**  
- 여러 Technology Radar 볼륨에 걸쳐 [small language models (SLMs)](https://www.thoughtworks.com/radar/techniques/small-language-models)의 꾸준한 발전 관찰  
- 에이전트 솔루션 구축에 대한 관심 증가로 SLM이 에이전트 AI를 효율적으로 구동할 수 있다는 증거 증가  
- 대부분의 현재 에이전트 워크플로우는 고급 추론이 필요하지 않은 좁고 반복적인 작업에 초점을 맞춰 SLM에 적합  
- [Phi-3](https://azure.microsoft.com/en-us/products/phi-3), [SmolLM2](https://huggingface.co/collections/HuggingFaceTB/smollm2-6723884218bcda64b34d7db9), [DeepSeek](https://www.deepseek.com/) 같은 SLM의 지속적 발전으로 이러한 작업에 충분한 기능 제공  
  
**22. Spec-driven development**  
- AI 지원 코딩 워크플로우에 대한 신흥 접근법으로 용어의 정의는 여전히 진화 중  
- 일반적으로 구조화된 기능 사양으로 시작한 다음 여러 단계를 거쳐 더 작은 조각, 솔루션, 작업으로 분해하는 워크플로우 지칭  
- Amazon의 [Kiro](https://aws.amazon.com/blogs/aws/introducing-amazon-q-developer-agent-capabilities/)는 사용자를 요구사항, 디자인, 작업 생성의 세 워크플로우 단계로 안내  
- GitHub의 [spec-kit](https://github.com/github/spec-kit)은 유사한 3단계 프로세스를 따르지만 더 풍부한 오케스트레이션, 구성 가능한 프롬프트, 항상 따라야 하는 불변 원칙을 정의하는 "constitution" 추가  
  
**23. Team of coding agents**  
- 개발자가 여러 AI 코딩 에이전트를 조율하는 기술로 각각 architect, back-end specialist, tester 같은 고유한 역할 보유  
- [Claude Code](https://www.anthropic.com/claude/code), [Roo Code](https://github.com/RooVetGit/Roo-Code), [Kilo Code](https://github.com/kilo-ai/kilo) 같은 도구가 서브에이전트 및 여러 운영 모드 지원  
- LLM에 특정 역할과 페르소나 할당이 출력 품질을 개선한다는 입증된 원칙을 기반으로 단일 범용 에이전트에 의존하는 대신 여러 역할별 에이전트 조정으로 더 나은 결과 달성  
- 오케스트레이션된 다단계 AI 지원 개발 파이프라인으로의 전환 표시  
  
**24. Topology-aware scheduling**  
- GPU 및 LPU는 더 이상 독립 장치가 아니라 성능이 배치 및 토폴로지에 따라 달라지는 긴밀하게 결합된 가속기 네트워크  
- NVIDIA의 [NVL72](https://www.nvidia.com/en-us/data-center/nvl72/) 같은 랙 규모 시스템에서 72개의 GPU가 13TB 이상의 VRAM 공유하며 단일 가속기로 작동하지만 워크로드가 스위치 아일랜드를 교차하면 집합 작업이 병목 현상으로 전환  
- Groq의 컴파일 타임, 소프트웨어 스케줄링된 아키텍처는 결정론적 데이터 이동을 가정하며 무작위 스케줄링은 이러한 가정과 예측 가능성 파괴  
- 토폴로지를 무시하는 순진한 스케줄러는 종종 멀티-GPU 워크로드를 임의로 분산시켜 단계 시간과 효율성 저하 초래  
  
**25. Toxic flow analysis for AI**  
- MCP의 S가 "security"를 의미한다는 익숙한 농담이 매우 실제적인 문제 숨김  
- 에이전트가 도구 호출이나 API 호출을 통해 서로 통신할 때 [lethal trifecta](https://simonwillison.net/2025/Jan/8/the-s-in-mcp-stands-for-security/)로 알려진 것을 빠르게 만날 수 있음: 개인 데이터 액세스, 신뢰할 수 없는 콘텐츠 노출, 외부 통신 능력  
- 세 가지를 모두 가진 에이전트는 매우 취약하며, LLM은 입력의 지침을 따르는 경향이 있어 신뢰할 수 없는 소스로 데이터 유출 지시를 포함하는 콘텐츠가 쉽게 데이터 누출로 이어질 수 있음  
- [toxic flow analysis](https://simonwillison.net/2025/Jan/8/toxic-flow-analysis/)는 에이전트 시스템의 흐름 그래프를 검사하여 추가 조사를 위한 잠재적으로 안전하지 않은 데이터 경로 식별  
  
##### Hold  
  
**26. AI-accelerated shadow IT**  
- AI가 비코더가 IT 부서를 기다리는 대신 소프트웨어를 직접 구축하고 통합하는 장벽 낮춤  
- 이것이 잠금 해제하는 잠재력에 흥분하지만 [AI-accelerated shadow IT](https://www.thoughtworks.com/radar/techniques/ai-accelerated-shadow-it)의 첫 징후에 경계  
- 노코드 워크플로우 자동화 플랫폼이 이제 AI API 통합(예: OpenAI 또는 Anthropic) 지원하여 AI를 덕트 테이프로 사용 유혹 - 이전에는 불가능했던 통합 연결  
- 동시에 AI 코딩 어시스턴트가 더 에이전트화되어 기본 교육을 받은 비코더가 내부 유틸리티 애플리케이션 구축 가능  
  
**27. Capacity-driven development**  
- 현대 소프트웨어 개발 실천법 성공의 핵심은 작업 흐름에 대한 초점 유지  
- [Stream-aligned](https://teamtopologies.com/key-concepts) 팀은 사용자 여정이나 제품 같은 단일 가치 있는 흐름에 집중하여 엔드투엔드 가치를 효율적으로 제공  
- 그러나 이러한 방식으로 정렬된 팀이 여유 용량이 있을 때 다른 제품이나 스트림의 기능을 맡는 [capacity-driven development](https://www.thoughtworks.com/radar/techniques/capacity-driven-development)를 향한 우려스러운 추세 관찰  
- 단기적으로는 효율적으로 보일 수 있지만 수요 급증 처리에 가장 적합한 로컬 최적화이며 정규화되면 인지 부하와 기술 부채 증가  
  
**28. Complacency with AI-generated code**  
- AI 코딩 어시스턴트와 에이전트가 주목을 받으면서 [complacency with AI-generated code](https://www.thoughtworks.com/radar/techniques/complacency-with-ai-generated-code)에 대한 우려를 강조하는 데이터와 연구 증가  
- 이러한 도구가 개발 가속화할 수 있다는 충분한 증거가 있지만, 연구는 시간이 지남에 따라 코드 품질이 저하될 수 있음을 보여줌  
- GitClear의 [2024 research](https://www.gitclear.com/coding_on_copilot_data_shows_ais_downward_pressure_on_code_quality)에서 중복 코드와 코드 churn이 예상보다 많이 증가한 반면 커밋 이력의 리팩토링 활동은 감소  
- Microsoft의 지식 근로자에 대한 [research](https://www.microsoft.com/en-us/research/publication/waves-of-productivity-studying-co-adaptation-in-the-wild/)는 AI 기반 자신감이 종종 비판적 사고를 희생하여 나타난다는 것을 보여줌  
  
**29. Naive API-to-MCP conversion**  
- 조직은 내부 API를 [Model Context Protocol (MCP)](https://modelcontextprotocol.io/)로 원활하고 직접적으로 변환하여 AI 에이전트가 기존 시스템과 상호 작용하도록 하려는 열망  
- [MCP link](https://github.com/modelcontextprotocol/mcp-link) 및 [FastAPI-MCP](https://github.com/jlowin/fastapi-mcp) 같은 도구가 이러한 변환을 지원하려는 증가하는 수  
- 이러한 [naive API-to-MCP conversion](https://www.thoughtworks.com/radar/techniques/naive-api-to-mcp-conversion)에 반대하며, API는 일반적으로 인간 개발자를 위해 설계되어 AI가 함께 연결할 때 과도한 토큰 사용, 맥락 오염, 에이전트 성능 저하로 이어질 수 있는 세분화된 원자적 작업으로 구성  
- 이러한 API는 특히 내부 API의 경우 민감한 데이터를 노출하거나 파괴적 작업을 허용하는 경우가 많음  
  
**30. Standalone data engineering teams**  
- 제공하는 스트림 정렬 비즈니스 도메인과 별도로 데이터 파이프라인과 제품을 개발하고 소유하는 별도의 데이터 엔지니어링 팀 조직은 비효율성과 약한 비즈니스 결과로 이어지는 안티패턴  
- 이 구조는 DevOps, 테스트 또는 배포 기능을 분리하는 과거 실수를 반복하여 지식 사일로, 병목 현상, 노력 낭비 생성  
- 긴밀한 협업 없이 데이터 엔지니어는 종종 의미 있는 데이터 제품 설계에 필요한 비즈니스 및 도메인 컨텍스트 부족하여 채택과 가치 모두 제한  
- 대신 데이터 플랫폼 팀은 공유 인프라 유지에 초점을 맞추고 교차 기능 비즈니스 팀이 [data mesh](https://www.thoughtworks.com/radar/techniques/data-mesh) 원칙에 따라 자체 [data products](https://www.thoughtworks.com/radar/techniques/data-products)를 구축하고 소유해야 함  
  
**31. Text to SQL**  
- [Text to SQL](https://www.thoughtworks.com/radar/techniques/text-to-sql)은 LLM을 사용하여 자연어를 실행 가능한 SQL로 번역하지만 신뢰성이 기대에 미치지 못하는 경우가 많음  
- 감독되지 않은 워크플로우에서의 사용을 권장하지 않도록 이 블립을 Hold로 이동 - 예를 들어 출력이 숨겨지거나 자동화된 사용자 생성 쿼리를 동적으로 변환  
- 이러한 경우 LLM은 제한된 스키마 또는 도메인 이해로 인해 종종 환각을 일으켜 잘못된 데이터 검색 또는 의도하지 않은 데이터 수정 위험  
- 에이전트 비즈니스 인텔리전스의 경우 직접 데이터베이스 액세스를 피하고 대신 [Cube](https://cube.dev/) 또는 [dbt's semantic layer](https://www.getdbt.com/product/semantic-layer) 같은 관리되는 데이터 추상화 시맨틱 레이어 사용  
  
#### [Platforms]  
  
##### Adopt  
  
**32. Arm in the cloud**  
- 클라우드의 [Arm compute instances](https://aws.amazon.com/ec2/instance-types/a1/)는 전통적인 x86 기반 인스턴스에 비해 비용 및 에너지 효율성으로 최근 몇 년 동안 점점 인기  
- [AWS](https://aws.amazon.com/ec2/graviton/), [Azure](https://azure.microsoft.com/en-us/blog/azure-virtual-machines-with-ampere-altra-arm-based-processors-generally-available/), [GCP](https://cloud.google.com/compute/docs/general-purpose-machines#t2a_machines)를 포함한 주요 클라우드 제공업체가 이제 강력한 Arm 옵션 제공  
- 많은 팀이 마이크로서비스, 오픈소스 데이터베이스, 심지어 고성능 컴퓨팅 같은 워크로드를 최소한의 코드 변경과 약간의 빌드 스크립트 조정만으로 Arm으로 성공적으로 마이그레이션  
- [multi-arch Docker images](https://docs.docker.com/build/building/multi-platform/) 같은 최신 도구가 Arm 및 x86 환경 모두에서 구축 및 배포 단순화  
  
##### Trial  
  
**33. Apache Paimon**  
- [Apache Paimon](https://paimon.apache.org/)은 [lakehouse architecture](https://www.databricks.com/glossary/lakehouse-architecture)를 가능하게 하도록 설계된 오픈소스 데이터 레이크 형식  
- [Flink](https://flink.apache.org/) 및 [Spark](https://spark.apache.org/) 같은 처리 엔진과 원활하게 통합되어 스트리밍 및 배치 작업 모두 지원  
- Paimon 아키텍처의 주요 장점은 표준 데이터 레이크 형식과 [LSM (log-structured merge tree)](https://en.wikipedia.org/wiki/Log-structured_merge-tree) 구조의 융합  
- 이 조합은 데이터 레이크의 높은 성능 업데이트와 낮은 지연 읽기라는 전통적 과제 해결  
  
**34. DataDog LLM Observability**  
- [Datadog LLM Observability](https://www.datadoghq.com/product/llm-observability/)는 대형 언어 모델 및 에이전트 애플리케이션 워크플로우에 대한 엔드투엔드 추적, 모니터링, 진단 제공  
- 각 프롬프트, 도구 호출, 중간 단계를 스팬과 트레이스로 매핑하고, 지연시간, 토큰 사용량, 오류, 품질 메트릭 추적하며 Datadog의 광범위한 APM 및 가시성 제품군과 통합  
- 이미 Datadog를 사용 중이고 비용 구조에 익숙한 조직은 해당 워크로드를 계측할 수 있다고 가정할 때 LLM 가시성 기능이 AI 워크로드에 대한 가시성을 얻는 직관적인 방법임을 알 수 있음  
- LLM 계측 구성 및 사용에는 주의와 워크로드 및 구현에 대한 확실한 이해 필요하며 배포 시 데이터 엔지니어와 운영 직원의 긴밀한 협력 권장  
  
**35. Delta Sharing**  
- [Delta Sharing](https://delta.io/sharing/)은 Databricks 및 Linux Foundation이 개발한 안전한 크로스 플랫폼 데이터 공유를 위한 오픈 표준 및 프로토콜  
- 클라우드 독립적이며 조직이 데이터를 복사하거나 복제하지 않고 클라우드 제공업체 및 온프레미스 위치에서 라이브 데이터 공유 가능  
- 간단한 REST API를 사용하여 수신자가 pandas, Spark 또는 Power BI 같은 도구를 사용하여 대규모 데이터세트를 검색할 수 있도록 단기 사전 서명된 URL 발급  
- 데이터 테이블, 뷰, AI 모델, 노트북 공유 지원하며 강력한 중앙 집중식 거버넌스 및 감사 제공  
  
**36. Dovetail**  
- [Dovetail platform](https://dovetail.com/)은 분산된 정성적 연구 데이터 관리의 지속적인 과제 해결  
- 사용자 인터뷰, 전사, 통찰력을 위한 중앙 집중식 리포지토리 제공하여 원시 데이터를 구조화되고 분석 가능한 자산으로 전환  
- 제품 발견 워크플로우에서 특히 고객 인용문과 합성된 테마를 제품 가설 및 예상 ROI와 직접 연결하는 증거 추적 생성에 매우 유용  
- 그렇게 함으로써 Dovetail은 제품 의사 결정에서 정성적 데이터의 역할 강화  
  
**37. Langdock**  
- [Langdock](https://www.langdock.com/)는 조직이 내부 운영을 위한 생성 AI 에이전트 및 워크플로우를 개발하고 실행하는 플랫폼  
- 내부 채팅 어시스턴트, 여러 LLM에 연결하기 위한 API 레이어, Slack, Confluence, Google Drive 같은 시스템과 통합하는 에이전트 워크플로우 구축 도구가 있는 통합 환경 제공  
- 플랫폼은 엔터프라이즈 규정 준수 표준을 갖춘 온프레미스 및 EU 호스팅 옵션을 제공하여 데이터 주권 강조  
- Langdock를 배포하는 조직은 여전히 데이터 거버넌스에 세심한 주의를 기울여야 하며 [toxic flow analysis](https://www.thoughtworks.com/radar/techniques/toxic-flow-analysis) 같은 기술을 사용하여 [lethal trifecta](https://simonwillison.net/2025/Jan/8/the-s-in-mcp-stands-for-security/) 방지  
  
**38. LangSmith**  
- [LangSmith](https://www.langchain.com/langsmith)는 LangChain 팀의 호스팅 플랫폼으로 LLM 애플리케이션에 대한 가시성, 추적, 평가 제공  
- 체인, 도구, 프롬프트의 상세한 트레이스를 캡처하여 팀이 모델 동작을 디버그 및 측정하고 성능 회귀를 추적하며 평가 데이터 세트 관리 가능  
- LangSmith는 non-LangChain 워크플로우에 대한 제한된 지원을 가진 독점 SaaS 플랫폼으로 해당 생태계에 이미 투자한 팀에게 가장 매력적  
- 프롬프트 평가 및 실험에 대한 통합 지원은 [Langfuse](https://langfuse.com/) 같은 오픈소스 대안보다 특히 더 세련됨  
  
**39. Model Context Protocol (MCP)**  
- [Model Context Protocol (MCP)](https://modelcontextprotocol.io/)는 LLM 애플리케이션 및 에이전트가 외부 데이터 소스 및 도구와 통합하는 방법을 정의하는 오픈 표준  
- MCP는 컨텍스트 및 도구 액세스에 초점을 맞추어 에이전트 간 통신을 관리하는 [Agent2Agent (A2A)](https://a2a.msft.io/) 프로토콜과 구별  
- 지난 블립 이후 MCP 채택이 급증하여 JetBrains (IntelliJ) 및 Apple 같은 주요 기업이 [FastMCP](https://github.com/jlowin/fastmcp) 같은 신흥 프레임워크와 함께 생태계에 합류  
- 프리뷰 [MCP Registry](https://github.com/modelcontextprotocol/registry) 표준이 이제 공개 및 독점 도구 발견 지원  
  
**40. n8n**  
- [n8n](https://n8n.io/)은 Zapier 또는 Make(이전 Integromat)와 유사한 fair-code 라이선스 워크플로우 자동화 플랫폼이지만 자체 호스팅, 확장 가능, 코드 제어 가능한 옵션을 원하는 개발자를 위해 구축  
- Apache Airflow보다 워크플로우 생성에 대한 로우코드, 시각적 접근법 제공하면서도 JavaScript 또는 Python의 커스텀 코드 지원  
- 주요 사용 사례는 여러 서비스를 자동화된 워크플로우로 통합하는 것이지만 LLM을 구성 가능한 데이터 소스, 메모리, 도구와 연결할 수도 있음  
- 많은 팀이 n8n을 사용하여 채팅 애플리케이션이나 웹훅으로 트리거되는 에이전트 워크플로우를 빠르게 프로토타입하며 종종 import 및 export 기능을 활용하여 AI 지원으로 워크플로우 생성  
  
**41. OpenThread**  
- [OpenThread](https://openthread.io/)는 Google이 개발한 Thread 네트워킹 프로토콜의 오픈소스 구현  
- IPv6, 6LoWPAN, LR-WPAN 같은 네트워킹 레이어를 포함한 Thread 사양의 모든 주요 기능과 장치가 노드 및 보더 라우터로 작동할 수 있는 메시 네트워크 기능 지원  
- OpenThread는 공급업체가 자체 라디오 및 암호화 기능을 통합할 수 있는 유연한 추상화 레이어와 통합 훅을 활용하여 광범위한 하드웨어 플랫폼에서 실행  
- 이 성숙한 프로토콜은 상업용 제품에 널리 사용되며 경험상 배터리 작동 저전력 장치부터 대규모 메시 센서 네트워크까지 다양한 IoT 솔루션 구축에 신뢰할 수 있음  
  
##### Assess  
  
**42. AG-UI Protocol**  
- [AG-UI](https://github.com/ag-ui/ag-ui)는 풍부한 사용자 인터페이스와 에이전트 간 통신을 표준화하도록 설계된 오픈 프로토콜 및 라이브러리  
- 직접 사용자 대면 에이전트에 초점을 맞추며 미들웨어 및 클라이언트 통합을 사용하여 모든 프론트엔드 및 백엔드에 일반화  
- 프로토콜은 백엔드 에이전트가 프론트엔드 애플리케이션과 통신하는 일관된 방법을 정의하여 AI와 인간 사용자 간 실시간 상태 저장 협업 가능  
- SSE 및 WebSockets를 포함한 여러 전송 프로토콜 지원하고 에이전트 실행의 다양한 상태를 나타내는 표준화된 이벤트 유형 제공  
  
**43. Agent-to-Agent (A2A) Protocol**  
- [Agent2Agent (A2A)](https://a2a.msft.io/)는 복잡한 다중 에이전트 워크플로우에서 에이전트 간 통신 및 상호작용에 대한 표준을 정의하는 프로토콜  
- Agent Cards를 사용하여 기술 발견 및 전송과 보안 체계의 사양을 포함한 에이전트 간 통신의 핵심 요소 설명  
- A2A는 에이전트의 상태, 메모리 또는 내부 같은 내부 세부 정보를 노출하지 않고 에이전트 간 통신에 초점을 맞춰 [Model Context Protocol (MCP)](https://modelcontextprotocol.io/) 보완  
- 프로토콜은 장기 실행 작업에 대한 비동기 우선 접근법, 점진적 업데이트를 위한 스트리밍 응답, HTTPS, 인증, 권한 부여를 사용한 보안 전송 같은 모범 사례 촉진  
  
**44. Amazon S3 Vectors**  
- [Amazon S3 Vectors](https://aws.amazon.com/s3/features/vector-storage/)는 S3 객체 저장소를 네이티브 벡터 기능으로 확장하여 내장 벡터 저장 및 유사성 검색 기능 제공  
- Amazon Bedrock 및 OpenSearch를 포함한 AWS 생태계와 원활하게 통합되며 메타데이터 필터링 및 IAM을 통한 거버넌스 같은 추가 기능 제공  
- 여전히 프리뷰 상태이고 제한 사항이 있지만 가치 제안이 매력적임 - 이 비용 효율적이고 접근 가능한 벡터 저장소 접근법은 대량의 데이터 볼륨을 포함하고 낮은 지연시간이 주요 관심사가 아닌 다양한 애플리케이션 가능  
  
**45. Ardoq**  
- [Ardoq](https://www.ardoq.com/)는 조직이 미래를 더 효과적으로 계획할 수 있도록 아키텍처 지식 기반을 구축, 관리, 확장할 수 있는 엔터프라이즈 아키텍처 (EA) 플랫폼  
- 드리프트 및 사일로화 경향이 있는 전통적인 정적 문서와 달리 Ardoq의 데이터 기반 접근법은 기존 시스템에서 정보를 가져와 경관이 진화함에 따라 최신 상태를 유지하는 동적 지식 그래프 생성  
- 특히 유용한 기능은 Git과 유사한 분기 및 병합 접근법을 사용하여 what-if 미래 상태를 시각적으로 모델링하고 정의할 수 있는 [Ardoq Scenarios](https://www.ardoq.com/product/scenarios)  
- 아키텍처 전환을 추구하는 조직은 이 프로세스를 간소화하고 가속화할 잠재력을 위해 Ardoq 같은 전용 EA 플랫폼 평가해야 함  
  
**46. CloudNativePG**  
- [CloudNativePG](https://cloudnative-pg.io/)는 Kubernetes에서 고가용성 PostgreSQL 클러스터를 호스팅하고 관리하는 것을 단순화하는 Kubernetes Operator  
- Kubernetes에서 PostgreSQL 같은 상태 저장 서비스를 실행하는 것은 Kubernetes와 PostgreSQL 복제 모두에 대한 깊은 지식이 필요하여 복잡할 수 있음  
- CloudNativePG는 전체 PostgreSQL 클러스터를 단일의 구성 가능한 선언적 리소스로 취급하여 이 복잡성의 대부분을 추상화  
- 네이티브 스트리밍 복제를 사용한 원활한 primary/standby 아키텍처 제공하고 자체 치유 기능, 가장 정렬된 복제본을 승격하는 자동 페일오버, 실패한 복제본의 자동 재생성을 포함한 고가용성 기능 즉시 제공  
  
**47. Coder**  
- [Coder](https://coder.com/)는 이전에 설명한 [development environments in the cloud](https://www.thoughtworks.com/radar/techniques/development-environments-in-the-cloud) 실천법에 따라 표준화된 코딩 환경을 빠르게 프로비저닝하는 플랫폼  
- Gitpod(현재 Ona로 리브랜딩) 및 GitHub Codespaces 같은 유사한 도구와 비교하여 Coder는 Terraform을 통한 워크스테이션 사용자 정의에 대한 더 큰 제어 제공  
- 벤더의 서버가 아닌 클라우드 또는 데이터 센터의 자체 인프라에서 워크스테이션 호스팅  
- 이 접근법은 AI 코딩 에이전트를 실행하고 내부 조직 시스템에 액세스하는 기능을 포함하여 더 많은 유연성 제공  
  
**48. Graft**  
- [Graft](https://graft.sh/)는 에지 및 분산 환경에서 강력하게 일관되고 효율적인 데이터 동기화를 가능하게 하는 트랜잭션 저장소 엔진  
- lazy replication을 사용하여 필요 시에만 데이터 동기화, partial replication으로 대역폭 소비 최소화, serializable snapshot isolation으로 데이터 무결성 보장  
- 유사한 사용 사례를 위해 Radar에서 [Electric](https://www.thoughtworks.com/radar/platforms/electric)을 언급했지만 Graft는 데이터 형식을 부과하지 않고 일관된 페이지 수준 업데이트를 지원하는 트랜잭션 시스템으로 객체 저장소를 전환하는 점이 독특  
- 로컬 우선 모바일 애플리케이션 구동, 복잡한 크로스 플랫폼 동기화 관리, 서버리스 또는 임베디드 시스템에서 상태 비저장 복제본의 백본 역할에 적합  
  
**49. groundcover**  
- [groundcover](https://www.groundcover.com/)는 로그, 트레이스, 메트릭, Kubernetes 이벤트를 단일 창에 통합하는 클라우드 네이티브 가시성 플랫폼  
- [eBPF](https://ebpf.io/)를 활용하여 애플리케이션 코드에 에이전트나 SDK를 삽입하지 않고 세분화된 가시성 데이터를 제로 코드 계측으로 캡처  
- groundcover의 eBPF 센서는 모니터링하는 각 클러스터의 전용 노드에서 실행되어 관찰하는 애플리케이션과 독립적으로 작동  
- 주요 기능에는 심층 커널 수준 가시성, 데이터 프라이버시를 위한 [bring-your-own-cloud (BYOC) architecture](https://www.groundcover.com/blog/byoc), 비용을 예측 가능하게 유지하는 데이터 볼륨 독립적 가격 모델 포함  
  
**50. Karmada**  
- [Karmada](https://karmada.io/) ("Kubernetes Armada")는 여러 Kubernetes 클러스터, 클라우드, 데이터 센터에서 워크로드를 오케스트레이션하는 플랫폼  
- 많은 팀이 현재 Flux 또는 ArgoCD 같은 GitOps 도구와 커스텀 스크립트를 결합하여 클러스터 전체에 배포하므로 목적별 솔루션이 환영받음  
- Karmada는 Kubernetes 네이티브 API를 활용하여 클라우드 네이티브 환경용으로 이미 구축된 애플리케이션을 변경할 필요 없음  
- 멀티 클라우드 관리, 고가용성, 장애 복구, 트래픽 스케줄링을 위한 고급 스케줄링 기능 제공  
  
**51. OpenFeature**  
- 비즈니스가 확장됨에 따라 feature flag 관리는 종종 점점 복잡해지며, 팀은 가장 간단한 [feature toggle](https://www.martinfowler.com/articles/feature-toggles.html)을 넘어서는 추상화 레이어 필요  
- [OpenFeature](https://openfeature.dev/)는 feature flag가 정의되고 소비되는 방식을 표준화하는 벤더 독립적이고 커뮤니티 주도 API 사양을 통해 이 레이어 제공  
- CLI는 환경 변수 또는 인메모리 구성을 사용한 기본 설정부터 [ConfigCat](https://configcat.com/) 또는 [LaunchDarkly](https://launchdarkly.com/) 같은 성숙한 플랫폼까지 여러 스키마 정의에 대한 광범위한 지원 제공  
- 그러나 한 가지 중요한 주의 사항이 남아 있음: 팀은 플래그 확산, 애플리케이션 복잡성, 과도한 테스트 오버헤드를 피하기 위해 flag의 다양한 [categories of flags](https://www.martinfowler.com/articles/feature-toggles.html#CategoriesOfToggles)를 별도로 그리고 규율 있게 관리해야 함  
  
**52. Oxide**  
- 프라이빗 인프라를 구축하고 운영하는 것은 복잡하며, 이것이 공용 클라우드가 대부분의 조직에 기본값인 주요 이유 중 하나  
- 그러나 이를 필요로 하는 사람들을 위해 [Oxide](https://oxide.computer/)는 처음부터 하드웨어와 소프트웨어를 조립하고 통합하는 대안 제공  
- 완전히 통합된 시스템 소프트웨어를 실행하는 컴퓨팅, 네트워킹, 저장소가 포함된 사전 구축된 랙 제공  
- 팀은 Terraform 및 기타 자동화 도구를 사용하여 Oxide의 IaaS API를 통해 리소스 관리 가능 - Oxide가 온프레미스 탄력적 인프라라고 부르는 것  
  
**53. Restate**  
- [Restate](https://restate.dev/)는 상태 저장, 내결함성 애플리케이션을 구축할 때 복잡한 분산 시스템 과제를 해결하도록 설계된 지속적 실행 플랫폼  
- 실행 저널링을 통해 모든 단계를 기록하여 내결함성, 신뢰할 수 있는 복구, 서비스 간 정확히 한 번 통신 보장  
- 플랫폼의 주요 아키텍처 장점은 애플리케이션 로직을 세 가지 지속적 서비스 유형으로 분리: 상태 비저장 함수를 위한 Basic Services, 동시 상태 저장 엔티티를 모델링하는 Virtual Objects, 복잡한 다단계 프로세스를 오케스트레이션하는 Workflows  
- 대규모 보험 시스템에서 Restate를 신중하게 평가하고 있으며 지금까지 성능에 매우 만족  
  
**54. SkyPilot**  
- [SkyPilot](https://skypilot.readthedocs.io/)은 온프레미스 또는 클라우드에서 AI 워크로드를 실행하고 확장하기 위한 오픈소스 플랫폼  
- UC Berkeley의 Sky Computing Lab에서 개발한 SkyPilot은 지능형 브로커 역할을 하여 주요 클라우드 및 Kubernetes 클러스터에서 가장 저렴하고 사용 가능한 GPU를 자동으로 찾고 프로비저닝하여 종종 컴퓨팅 비용 절감  
- 인프라 팀의 경우 [Slurm](https://slurm.schedmd.com/) 같은 사용 편의성, 클라우드 네이티브 견고성, 파드에 대한 직접 SSH 액세스, 갱 스케줄링 및 멀티 클러스터 지원 같은 기능을 제공하여 Kubernetes에서 AI 실행 단순화  
- 훈련 또는 추론 워크로드의 원활한 확장 지원  
  
**55. StarRocks**  
- [StarRocks](https://www.starrocks.io/)는 전통적인 OLAP 시스템의 속도와 현대 데이터 레이크하우스의 유연성을 결합하여 실시간 비즈니스 인텔리전스를 재정의하는 분석 데이터베이스  
- SIMD 최적화 실행 엔진, 컬럼 저장소, 정교한 비용 기반 옵티마이저를 통해 대규모 규모에서 1초 미만의 쿼리 지연시간 달성  
- 이 고성능 아키텍처를 통해 사용자는 사전 계산이나 데이터 복사 없이 Apache Iceberg 같은 오픈 데이터 형식에서 직접 복잡한 분석 실행 가능  
- 이 공간에는 많은 플랫폼이 있지만 StarRocks를 극한의 동시성과 일관된 최신 데이터 신선도 모두를 요구하는 비용 효율적인 솔루션의 강력한 후보로 봄  
  
**56. Uncloud**  
- [Uncloud](https://uncloud.io/)는 개발자가 Docker Compose 애플리케이션을 프로덕션으로 가져갈 수 있게 하는 경량 컨테이너 오케스트레이션 및 클러스터링 도구  
- Kubernetes의 운영 오버헤드 없이 간단하고 클라우드 같은 경험 제공  
- 통신을 위한 안전한 [WireGuard](https://www.wireguard.com/) 메시 네트워크를 자동으로 구성하고 [Caddy](https://caddyserver.com/) 역방향 프록시를 사용하여 자동 HTTPS 및 로드 밸런싱 제공함으로써 크로스 머신 확장 및 무중단 배포 달성  
- Uncloud의 주요 아키텍처 장점은 완전히 분산된 설계로 중앙 제어 평면의 필요성을 제거하고 개별 머신이 오프라인으로 전환되어도 클러스터 작업이 기능적으로 유지되도록 보장  
  
#### [Tools]  
  
##### Adopt  
  
**57. ClickHouse**  
- [ClickHouse](https://clickhouse.com/)는 실시간 분석을 위한 오픈소스 분산 컬럼형 온라인 분석 처리(OLAP) 데이터베이스  
- 대규모 데이터 분석을 처리할 수 있는 매우 성능이 뛰어나고 확장 가능한 엔진으로 성숙  
- 증분 구체화 뷰, 효율적인 쿼리 엔진, 강력한 데이터 압축으로 대화형 쿼리에 이상적  
- 근사 집계 함수에 대한 내장 지원으로 정확도와 성능 간 절충 가능하며 이는 고카디널리티 분석에 특히 유용  
  
**58. NeMo Guardrails**  
- [NeMo Guardrails](https://github.com/NVIDIA/NeMo-Guardrails)는 NVIDIA의 오픈소스 툴킷으로 LLM 기반 대화형 애플리케이션에 프로그래밍 가능한 안전 및 제어 메커니즘을 쉽게 추가  
- 동작 규칙을 정의하고 시행하여 출력이 안전하고 주제에 맞으며 규정을 준수하도록 보장  
- 개발자는 유연한 대화 흐름을 생성하고 대화를 관리하며 사전 정의된 경로와 운영 절차를 시행하기 위해 목적별 언어인 [Colang](https://github.com/NVIDIA/NeMo-Guardrails/tree/main/docs/colang)를 사용  
- NeMo Guardrails는 성능을 위한 비동기 우선 API를 제공하고 콘텐츠 안전성, 보안, 입력 및 출력 조정을 위한 안전장치 지원  
  
**59. pnpm**  
- 지난 Radar 이후 팀으로부터 [pnpm](https://pnpm.io/)에 대한 긍정적인 피드백을 계속 받고 있음  
- pnpm은 속도와 디스크 공간 효율성 모두에서 대안에 비해 상당한 성능 향상을 제공하는 Node.js 패키지 관리자  
- 여러 프로젝트의 node_modules 폴더에서 중복 패키지를 디스크의 단일 위치로 하드 링크하고 성능을 더욱 향상시키는 증분 파일 수준 최적화 지원  
- pnpm이 최소한의 호환성 문제로 훨씬 빠른 피드백 루프를 제공하기 때문에 Node.js 패키지 관리의 기본 선택이 됨  
  
**60. Pydantic**  
- [Pydantic](https://docs.pydantic.dev/)은 표준 타입 힌트를 사용하여 데이터 모델을 정의하고 런타임에 데이터 스키마를 강제하는 Python 라이브러리  
- 원래 타입 주석은 정적 분석을 위해 Python에 추가되었지만 그 증가하는 다양성이 런타임 검증을 포함한 더 광범위한 사용으로 이어짐  
- 빠른 Rust 코어를 기반으로 구축되어 효율적인 데이터 검증, 파싱, 직렬화 제공  
- LLM 애플리케이션에서 필수적이 되었으며 일반적으로 [structured output from LLMs](https://www.thoughtworks.com/radar/techniques/structured-output-from-llms) 기술을 사용하여 LLM의 예측 불가능한 특성 관리  
  
##### Trial  
  
**61. AI Design Reviewer**  
- [AI Design Reviewer](https://www.figma.com/community/plugin/1369699164456702054/ai-design-reviewer)는 디자인 감사 또는 휴리스틱 평가를 수행하고 기존 또는 새 디자인에 대한 실행 가능한 피드백을 수집하기 위한 Figma 플러그인  
- 감사는 UX 비평, UI 불일치, 접근성 격차, 콘텐츠 품질, 엣지 케이스 시나리오 다룸  
- 문제 식별 외에도 팀이 공유 디자인 어휘와 디자인 선택 뒤의 근거를 구축하는 데 도움이 되는 도메인 인식 권장 사항 제공  
- 팀은 AI Design Reviewer를 사용하여 레거시 디자인을 분석 - 유지할 긍정적 경험과 해결할 부정적 경험을 식별하여 재디자인을 위한 UX 목표에 정보 제공  
  
**62. Barman**  
- [Barman](https://pgbarman.org/) (Backup and Recovery Manager)은 PostgreSQL 서버의 백업 및 재해 복구를 관리하는 오픈소스 도구  
- 다양한 방법을 통해 물리적 백업 생성을 단순화하고, 포괄적인 카탈로그로 구성하며, 시점 복구 기능으로 라이브 서버에 백업 복원하는 전체 재해 복구 프로세스 지원  
- Barman이 강력하고 사용하기 쉽다는 것을 발견했으며 마이그레이션 활동 중 시점 복구 작업의 속도에 깊은 인상  
- 예약된 백업에도 유능하며 스케줄링 및 보존의 복잡하고 혼합된 구성을 처리하는 능력 보유  
  
**63. Claude Code**  
- Anthropic의 [Claude Code](https://www.anthropic.com/claude/code)는 복잡한 다단계 워크플로우를 계획하고 구현하기 위한 자연어 인터페이스와 에이전트 실행 모델을 제공하는 에이전트 AI 코딩 도구  
- 1년도 안 되어 출시되었지만 Thoughtworks 내외부의 개발자들에게 이미 널리 채택되어 Trial에 배치  
- OpenAI의 Codex CLI, Google의 Gemini CLI, 오픈소스 OpenCode 같은 콘솔 기반 코딩 에이전트가 출시되었고, Cursor, Windsurf, GitHub Copilot 같은 IDE 기반 어시스턴트는 이제 에이전트 모드 포함  
- 팀이 코드를 작성하고 수정할 뿐만 아니라 사양, 스토리, 구성, 인프라, 문서를 관리하기 위한 범용 AI 에이전트로 사용하는 것을 봄  
  
**64. Cleanlab**  
- 데이터 중심 AI 패러다임에서 데이터세트 품질을 개선하는 것이 종종 모델 자체를 튜닝하는 것보다 더 큰 성능 향상 제공  
- [Cleanlab](https://cleanlab.ai/)은 이 문제를 해결하도록 설계된 오픈소스 Python 라이브러리로 텍스트, 이미지, 표 형식, 오디오 데이터세트에서 잘못된 레이블링, 이상값, 중복 같은 일반적인 데이터 문제를 자동으로 식별  
- [confident learning](https://arxiv.org/abs/1911.00068) 원칙을 기반으로 구축된 Cleanlab은 모델 예측 확률을 활용하여 레이블 노이즈를 추정하고 데이터 품질 정량화  
- 이 모델 독립적 접근법을 통해 개발자는 데이터세트 오류를 진단하고 수정한 다음 개선된 견고성과 정확도를 위해 모델 재훈련 가능  
  
**65. Context7**  
- [Context7](https://context7.com/)은 AI 생성 코드의 부정확성을 해결하는 MCP 서버  
- LLM이 오래된 훈련 데이터에 의존하는 반면 Context7은 프로젝트에서 사용되는 라이브러리와 프레임워크에 대한 정확하고 최신이며 버전별 코드를 생성하도록 보장  
- 프레임워크 소스 리포지토리에서 직접 최신 문서와 기능적 코드 예제를 가져와 프롬프팅 순간에 LLM의 컨텍스트 창에 주입  
- 경험상 Context7이 코드 환각과 오래된 훈련 데이터에 대한 의존을 크게 줄임  
  
**66. Data Contract CLI**  
- [Data Contract CLI](https://cli.datacontract.com/)는 [Data Contract](https://datacontract.com/) 사양 작업을 위해 설계된 오픈소스 명령줄 도구  
- 데이터 계약을 생성 및 편집할 수 있게 하고 중요하게는 데이터를 계약에 대해 검증할 수 있어 데이터 제품의 무결성과 품질을 보장하는 데 필수적  
- CLI는 여러 스키마 정의(Avro, SQL DDL, [Open Data Contract Standard](https://github.com/bitol-io/open-data-contract-standard) 등)에 대한 광범위한 지원을 제공하고 다양한 계약 버전을 비교하여 즉시 주요 변경 사항 감지 가능  
- 특히 데이터 메시 공간에서 CI/CD 통합을 통해 데이터 제품 간 계약 거버넌스를 운영화하는 데 유용함을 발견  
  
**67. Databricks Assistant**  
- [Databricks Assistant](https://www.databricks.com/product/databricks-assistant)는 Databricks 플랫폼에 직접 통합된 AI 기반 대화형 도구로 데이터 전문가를 위한 상황별 페어 프로그래머 역할  
- 범용 코딩 어시스턴트와 달리 Unity Catalog의 메타데이터를 포함하여 Databricks 환경 및 데이터 컨텍스트에 대한 기본 이해의 이점  
- Assistant는 코드 스니펫 생성을 넘어 복잡한 다단계 SQL 및 Python 쿼리를 작성하고 오류를 진단하며 상세하고 워크스페이스별 설명 제공 가능  
- 이미 Databricks 생태계에 투자한 조직의 경우 생산성을 가속화하고 복잡한 데이터 작업에 대한 진입 장벽을 낮출 수 있음  
  
**68. Hoppscotch**  
- [Hoppscotch](https://hoppscotch.io/)는 API 개발, 디버깅, 테스트, 공유를 위한 경량 오픈소스 도구  
- HTTP, GraphQL, WebSocket을 포함한 여러 프로토콜을 지원하고 웹, 데스크톱, CLI 환경용 크로스 플랫폼 클라이언트 제공  
- API 도구 공간이 Postman, Insomnia, Bruno 같은 대안으로 붐비지만 Hoppscotch는 경량 풋프린트와 프라이버시 친화적 디자인으로 두드러짐  
- 분석을 생략하고 로컬 우선 저장소를 사용하며 자체 호스팅을 지원하여 강력한 데이터 프라이버시를 유지하면서 API 스크립트를 공유하는 직관적인 방법을 찾는 조직에 강력한 선택  
  
**69. NVIDIA DCGM Exporter**  
- [NVIDIA DCGM Exporter](https://github.com/NVIDIA/dcgm-exporter)는 팀이 분산 GPU 훈련을 대규모로 모니터링하는 데 도움이 되는 오픈소스 도구  
- NVIDIA Data Center GPU Manager (DCGM)의 독점 원격 측정을 표준 모니터링 시스템과 호환되는 오픈 형식으로 변환  
- GPU 및 호스트 서버 모두에서 GPU 활용도, 온도, 전력, ECC 오류 수 같은 중요한 실시간 메트릭 노출  
- 이 가시성은 커스텀 LLM을 미세 조정하거나 장기 실행 GPU 집약적 훈련 작업을 실행하는 조직에 필수적  
  
**70. RelationalAI**  
- 대량의 다양한 데이터가 Snowflake로 가져오면 해당 데이터 내의 고유한 관계와 암시적 규칙이 모호해질 수 있음  
- Snowflake Native App으로 구축된 [RelationalAI](https://relational.ai/)는 팀이 의미 있는 개념을 포착하고 핵심 비즈니스 엔티티를 정의하며 Snowflake 테이블에 대해 직접 복잡한 로직을 내장하는 정교한 모델을 구축할 수 있게 함  
- 강력한 Graph Reasoner를 통해 사용자는 이러한 모델을 기반으로 관계형 지식 그래프를 생성, 분석, 시각화 가능  
- 대규모의 빠르게 변화하는 데이터세트를 관리하는 조직의 경우 지식 그래프 구축이 사전 모니터링 및 더 풍부하고 실행 가능한 통찰력 생성에 필수적일 수 있음  
  
**71. UX Pilot**  
- [UX Pilot](https://uxpilot.ai/)는 와이어프레이밍부터 고충실도 시각 디자인 및 검토까지 UX 디자인 프로세스의 여러 단계를 지원하는 AI 도구  
- 텍스트 또는 이미지 입력을 받아들이고 자동으로 화면, 플로우, 레이아웃 생성 가능  
- Autoflow 기능은 사용자 플로우 전환을 생성하고 Deep Design은 더 풍부하고 상세한 출력 생성  
- UX Pilot는 표준 디자인 도구 내에서 정제를 위해 생성된 디자인을 내보내는 Figma 플러그인도 포함  
  
**72. v0**  
- [v0](https://v0.dev/)는 Radar에서 마지막으로 소개한 이후 진화  
- 이제 제품 관리자가 셀프서비스 UI 프로토타입을 더 쉽게 생성하고 조정할 수 있는 디자인 모드 포함  
- 최신 릴리스는 큰 컨텍스트 창과 멀티모달 기능을 갖춘 자체 모델을 도입하여 v0가 텍스트 및 시각적 입력 모두에서 UI를 생성하고 개선할 수 있게 함  
- 또 다른 주목할 만한 추가 사항은 시스템이 더 복잡한 작업을 분해하고 각각에 적절한 모델을 선택할 수 있는 에이전트 모드  
  
##### Assess  
  
**73. Augment Code**  
- [Augment Code](https://www.augmentcode.com/)는 대규모 코드베이스에서 깊은 컨텍스트 인식 지원을 제공하는 AI 코딩 어시스턴트  
- 코드가 자주 변경되더라도 빠른 코드 인덱스 업데이트와 빠른 검색을 가능하게 하는 고급 [context engineering](https://www.thoughtworks.com/radar/techniques/context-engineering)을 통해 두드러짐  
- Augment는 Claude Sonnet 4 및 4.5와 GPT-5 같은 모델을 지원하고 GitHub, Jira, Confluence와 통합되며 외부 도구 상호 운용성을 위한 [Model Context Protocol (MCP)](https://modelcontextprotocol.io/) 지원  
- 리팩토링 및 종속성 업그레이드부터 스키마 업데이트까지 복잡한 코드베이스 변경에 대한 단계별 안내 제공  
  
**74. Azure AI Document Intelligence**  
- [Azure AI Document Intelligence](https://azure.microsoft.com/en-us/products/ai-services/ai-document-intelligence) (이전 Form Recognizer)는 구조화되지 않은 문서에서 텍스트, 표, 키-값 쌍을 추출하여 구조화된 데이터로 변환  
- 사전 훈련된 딥러닝 모델을 사용하여 레이아웃과 의미를 해석하고 특수 형식을 위해 노코드 인터페이스를 통해 커스텀 모델 훈련 가능  
- 팀 중 하나는 ADI가 수동 데이터 입력을 크게 줄이고 데이터 정확도를 개선하며 보고를 가속화하여 더 빠른 데이터 기반 의사 결정으로 이어졌다고 보고  
- Amazon Textract 및 Google Document AI와 마찬가지로 강력한 레이아웃 이해로 엔터프라이즈급 문서 처리 제공  
  
**75. Docling**  
- [Docling](https://github.com/DS4SD/docling)은 구조화되지 않은 데이터의 고급 문서 처리를 위한 오픈소스 Python 및 TypeScript 라이브러리  
- PDF 및 PowerPoint 같은 실제 문서를 깨끗하고 기계 판독 가능한 형식으로 변환하는 종종 간과되는 "마지막 마일" 문제 해결  
- 전통적인 추출기와 달리 Docling은 컴퓨터 비전 기반 접근법을 사용하여 문서 레이아웃과 의미 구조를 해석하여 출력이 [retrieval-augmented generation (RAG)](https://www.thoughtworks.com/radar/techniques/retrieval-augmented-generation) 파이프라인에 특히 가치 있게 만듦  
- 복잡한 문서를 JSON 또는 Markdown 같은 구조화된 형식으로 변환하여 [structured output from LLMs](https://www.thoughtworks.com/radar/techniques/structured-output-from-llms) 같은 기술 지원  
  
**76. E2B**  
- [E2B](https://e2b.dev/)는 클라우드의 안전하고 격리된 샌드박스에서 AI 생성 코드를 실행하기 위한 오픈소스 도구  
- 에이전트는 [Firecracker](https://firecracker-microvm.github.io/) microVM 위에 구축된 이러한 샌드박스를 사용하여 코드를 안전하게 실행하고 데이터를 분석하며 연구를 수행하거나 가상 머신을 운영 가능  
- 이를 통해 실행 환경에 대한 완전한 제어와 보안으로 엔터프라이즈급 AI 에이전트를 구축하고 배포 가능  
  
**77. Helix editor**  
- 명령줄 즐겨찾기 Vim을 대체하려는 간단한 텍스트 편집기의 부활이 다소 있었음  
- [Helix](https://helix-editor.com/)는 [Neovim](https://neovim.io/) 및 최근 [Kakoune](https://kakoune.org/) 와 함께 이러한 붐비는 공간의 경쟁자 중 하나  
- 다소 장난스럽게 자신을 포스트 모던 텍스트 편집기로 묘사하며 Helix는 여러 커서, Tree-sitter 지원, 통합된 Language Server Protocol (LSP) 지원을 특징으로 하며 이것이 처음 우리의 주의를 끌었음  
- 진행 중인 플러그인 시스템으로 활발히 개발되고 있으며 전반적으로 Vim 사용자에게 친숙하게 느껴지지만 몇 가지 현대적 편의 기능을 추가하는 경량 모달 편집기  
  
**78. Kueue**  
- [Kueue](https://kueue.sigs.k8s.io/)는 할당량 및 리소스 소비를 관리하는 작업 대기열을 위한 Kubernetes 네이티브 컨트롤러  
- 다양한 우선순위와 리소스 요구사항을 가진 Kubernetes 워크로드를 처리하기 위한 API를 제공하며 작업을 허용하거나 제거할 시기를 결정하는 작업 수준 관리자로 기능  
- 효율적인 리소스 관리, 작업 우선순위 지정, 고급 스케줄링을 위해 설계된 Kueue는 Kubernetes 환경, 특히 [Kubeflow](https://www.kubeflow.org/) 같은 도구를 사용하는 ML 워크로드의 워크로드 실행 최적화에 도움  
- cluster-autoscaler 및 kube-scheduler를 대체하기보다는 함께 작동하며 순서, 할당량, 우선순위, 토폴로지 인식을 기반으로 한 작업 허용에 초점  
  
**79. MCPScan.ai**  
- [MCPScan.ai](https://mcpscan.ai/)는 스캔 및 프록시 두 가지 모드로 작동하는 [Model Context Protocol (MCP)](https://modelcontextprotocol.io/) 서버용 보안 스캐너  
- 스캔 모드에서는 구성 및 도구 설명을 분석하여 프롬프트 주입, 도구 중독, toxic flows 같은 알려진 취약점 감지  
- 프록시 모드에서 MCPScan.ai는 에이전트 시스템과 MCP 서버 사이의 브리지 역할을 하며 런타임 트래픽을 지속적으로 모니터링  
- 이 모드는 도구 호출 검증, PII 감지, 데이터 흐름 제약을 포함한 커스텀 보안 규칙 및 가드레일도 시행  
  
**80. oRPC**  
- [oRPC](https://orpc.unnoq.com/) (OpenAPI Remote Procedure Call)는 TypeScript에서 엔드투엔드 타입세이프 API를 제공하면서 OpenAPI 사양을 완전히 준수  
- 완전한 OpenAPI 사양을 자동으로 생성하여 통합 및 문서화 단순화 가능  
- [tRPC](https://trpc.io/) 및 [ElysiaJS](https://elysiajs.com/) 같은 대안이 종종 타입 안전성을 얻기 위해 새로운 프레임워크를 채택해야 하는 반면, oRPC는 Express, [Fastify](https://fastify.dev/), [Hono](https://hono.dev/), [Next.js](https://nextjs.org/)를 포함한 기존 Node.js 프레임워크와 원활하게 통합  
- 이러한 유연성으로 파괴적인 리팩토링 없이 기존 API에 엔드투엔드 타입 안전성을 채택하려는 팀에게 탁월한 선택  
  
**81. Power user for dbt**  
- [Power user for dbt](https://docs.myaltimate.com/)는 [dbt](https://www.getdbt.com/) 및 [dbt Cloud](https://www.getdbt.com/product/dbt-cloud) 환경 모두와 직접 통합되는 Visual Studio Code용 확장  
- dbt가 우리가 좋아하는 도구 중 하나로 남아 있기 때문에 사용성을 개선하는 모든 것이 생태계에 환영받는 추가 사항  
- 이전에는 개발자가 IDE 외부에서 SQL 코드를 검증하거나 모델 계보를 검사하기 위해 여러 도구에 의존  
- 이 확장으로 해당 기능이 이제 VS Code에 내장되어 코드 자동완성, 실시간 쿼리 결과, 시각적 모델 및 컬럼 계보 제공  
  
**82. Serena**  
- [Serena](https://github.com/serenaai/serena)는 [Claude Code](https://www.anthropic.com/claude/code) 같은 코딩 에이전트에게 의미론적 코드 검색 및 편집을 위한 IDE 같은 기능을 제공하는 강력한 코딩 툴킷  
- 심볼 수준에서 작동하고 코드의 관계형 구조를 이해함으로써 Serena는 토큰 효율성을 크게 개선  
- 전체 파일을 읽거나 조잡한 문자열 교체에 의존하는 대신 코딩 에이전트는 find_symbol, find_referencing_symbols, insert_after_symbol 같은 정밀한 Serena 도구를 사용하여 코드를 찾고 편집 가능  
- 소규모 프로젝트에서는 영향이 미미하지만 코드베이스가 커짐에 따라 이러한 효율성은 매우 가치 있음  
  
**83. SweetPad**  
- [SweetPad](https://github.com/sweetpad-dev/sweetpad) 확장은 개발자가 Apple 플랫폼에서 Swift 애플리케이션 개발 전체 수명주기를 위해 VS Code 또는 Cursor를 사용할 수 있게 함  
- xcodebuild, xcode-build-server, swift-format 같은 필수 도구를 통합하여 Xcode로 지속적으로 전환할 필요 제거  
- 개발자는 시뮬레이터를 관리하고 장치에 배포하면서 Xcode를 열지 않고도 IDE에서 직접 iOS, macOS, watchOS용 Swift 애플리케이션을 빌드, 실행, 디버그 가능  
  
**84. Tape/Z (Tools for Assembly Program Exploration for Z/OS)**  
- [Tape/Z](https://github.com/ThoughtWorks-DPS/dps-tape-z) (Tools for Assembly Program Exploration for Z/OS)는 메인프레임 HLASM (High-Level Assembler) 코드 분석을 위한 진화하는 툴킷  
- Thoughtworker가 개발했으며 파싱, 제어 흐름 그래프 구성, 종속성 추적, 플로차트 시각화 같은 기능 제공  
- 메인프레임 공간에서 오픈되고 커뮤니티 주도 도구의 희소성을 오랫동안 언급해왔으며 대부분의 옵션은 독점적이거나 벤더 생태계에 연결되어 있음  
- Tape/Z는 접근 가능하고 스크립트 가능한 분석 기능을 제공하여 그 격차를 메우는 데 도움  
  
#### [Languages and Frameworks]  
  
##### Adopt  
  
**85. Fastify**  
- [Fastify](https://fastify.dev/)에 대한 긍정적인 경험을 계속하고 있음 - Node.js용 빠르고 의견이 없으며 오버헤드가 낮은 웹 프레임워크  
- 파싱, 검증, 직렬화를 포함한 최소 웹 프레임워크의 모든 필수 기능과 견고한 플러그인 시스템 및 강력한 커뮤니티 지원 제공  
- 팀은 [Express.js](https://expressjs.com/) 같은 대안에 비해 Fastify를 사용할 때 중요한 단점을 보지 못했으며 측정 가능한 성능 향상도 얻어 Node.js의 최소 웹 개발에 매력적인 선택  
  
**86. LangGraph**  
- [LangGraph](https://www.langchain.com/langgraph)는 LLM을 사용하여 상태 저장 다중 에이전트 애플리케이션을 구축하기 위한 오케스트레이션 프레임워크  
- 노드 및 에지 같은 저수준 프리미티브와 개발자에게 에이전트 워크플로우, 메모리 관리, 상태 지속성에 대한 세분화된 제어를 제공하는 내장 기능 제공  
- 개발자가 간단한 사전 구축된 그래프로 시작하여 복잡하고 진화하는 에이전트 아키텍처로 확장할 수 있음을 의미  
- 스트리밍, 고급 컨텍스트 관리, 모델 폴백 및 도구 오류 처리 같은 복원력 패턴 지원으로 LangGraph는 강력한 프로덕션급 에이전트 애플리케이션 구축 가능  
  
**87. vLLM**  
- [vLLM](https://vllm.ai/)은 클라우드 또는 온프레미스에서 실행할 수 있는 LLM용 고처리량, 메모리 효율적인 추론 엔진  
- 여러 모델 아키텍처와 인기 있는 오픈소스 모델 지원  
- 팀은 NVIDIA DGX 및 Intel HPC 같은 GPU 플랫폼에 dockerized vLLM 워커를 배포하여 Llama 3.1 (8B 및 70B), Mistral 7B, Llama-SQL을 포함한 모델을 개발자 코딩 지원, 지식 검색, 자연어 데이터베이스 상호작용을 위해 호스팅  
- vLLM은 OpenAI SDK 표준과 호환되어 일관된 모델 서빙 가능  
  
##### Trial  
  
**88. Crossplane**  
- Radar에 마지막으로 등장한 이후 [Crossplane](https://www.crossplane.io/) 채택이 계속 증가했으며 특히 Kubernetes 클러스터 확장에 사용  
- 작업에서 Crossplane이 일반 목적 인프라 코드(IaC) 도구가 아닌 특정 사용 사례에서 뛰어남을 발견  
- 이전 관찰이 여전히 유효: Crossplane은 Kubernetes 내에 배포된 워크로드의 동반자로 가장 잘 작동하며 Terraform 같은 도구의 완전한 대체물은 아님  
- Crossplane을 주요 IaC 솔루션으로 "올인"한 팀은 종종 어려움을 겪었지만 실용적으로 사용한 팀 - 타깃팅된 커스텀 사용 사례를 위해 - 강력한 결과를 봄  
  
**89. DeepEval**  
- [DeepEval](https://docs.confident-ai.com/)은 LLM 성능 평가를 위한 오픈소스 Python 기반 평가 프레임워크  
- [LlamaIndex](https://www.llamaindex.ai/) 또는 [LangChain](https://www.langchain.com/)으로 구축된 [retrieval-augmented generation (RAG)](https://www.thoughtworks.com/radar/techniques/retrieval-augmented-generation) 및 기타 애플리케이션 평가와 모델 기준선 및 벤치마크에 사용 가능  
- DeepEval은 단어 매칭 점수를 넘어 실제 시나리오에서 더 신뢰할 수 있는 평가를 제공하기 위해 정확도, 관련성, 일관성 평가  
- 환각 감지, 답변 관련성, 하이퍼파라미터 최적화 같은 메트릭 포함하고 사용 사례별 커스텀 메트릭 생성을 위한 [GEval](https://docs.confident-ai.com/docs/metrics-llm-evals) 지원  
  
**90. FastMCP**  
- [Model Context Protocol (MCP)](https://modelcontextprotocol.io/)는 LLM 애플리케이션에 컨텍스트 및 도구를 제공하는 표준으로 빠르게 자리잡고 있음  
- 그러나 MCP 서버 구현은 일반적으로 설정, 프로토콜 처리, 오류 관리를 위한 상당한 보일러플레이트 포함  
- [FastMCP](https://github.com/jlowin/fastmcp)는 프로토콜 복잡성을 추상화하고 개발자가 직관적인 Python 데코레이터를 통해 MCP 리소스 및 도구를 정의할 수 있게 하여 이 프로세스를 단순화하는 Python 프레임워크  
- 이 추상화를 통해 팀이 비즈니스 로직에 집중할 수 있어 더 깨끗하고 유지 관리 가능한 MCP 구현으로 이어짐  
  
**91. LiteLLM**  
- [LiteLLM](https://www.litellm.ai/)은 표준화된 OpenAI API 형식을 통해 여러 LLM 제공업체와 원활한 통합을 제공하는 SDK  
- 광범위한 제공업체 및 모델을 지원하여 텍스트 완성, 임베딩, 이미지 생성을 위한 통합 인터페이스 제공  
- 제공업체별 API 차이를 추상화함으로써 LiteLLM은 통합을 단순화하고 자동으로 요청을 올바른 모델 엔드포인트로 라우팅  
- 프록시 프레임워크를 통해 가드레일, 캐싱, 로깅, 속도 제한, 로드 밸런싱 같은 프로덕션급 기능도 포함  
  
**92. MLForecast**  
- [MLForecast](https://nixtla.github.io/mlforecast/)는 기계 학습 모델을 대규모 데이터세트에 적용하는 시계열 예측을 위한 Python 프레임워크 및 라이브러리  
- 래그, 롤링 통계, 날짜 기반 기능을 포함한 일반적으로 복잡한 자동화된 특징 엔지니어링 프로세스를 단순화  
- Spark 및 Dask 같은 분산 컴퓨팅 프레임워크에 대한 네이티브 지원을 가진 몇 안 되는 라이브러리 중 하나로 확장성 보장  
- conformal prediction 같은 방법을 사용한 확률적 예측도 지원하여 예측 불확실성의 정량적 측정 제공  
  
**93. Nuxt**  
- [Nuxt](https://nuxt.com/)는 풀스택 웹 애플리케이션 생성을 위해 [Vue.js](https://vuejs.org/) 위에 구축된 의견이 있는 메타 프레임워크로 종종 "Vue.js용 Next.js"로 알려짐  
- React 대응물과 유사하게 Nuxt는 사전 렌더링, 서버 사이드 렌더링(SSR), 메타데이터 관리 같은 SEO 친화적 기능 제공  
- Nuxt는 Next.js 뒤의 동일한 회사인 Vercel의 지원을 받으며 강력한 커뮤니티와 공식 및 타사 모듈 생태계의 지원을 받음  
- 이러한 모듈은 이미지 처리, 사이트맵, Tailwind CSS 같은 기능의 통합을 단순화  
  
**94. Phoenix**  
- [Phoenix](https://www.phoenixframework.org/)와의 긍정적인 경험을 계속하고 있음 - [Elixir](https://elixir-lang.org/)로 작성된 서버 사이드 웹 MVC 프레임워크  
- Phoenix는 Ruby on Rails의 신속한 애플리케이션 개발 및 개발자 경험 학습을 기반으로 하면서 함수형 프로그래밍 패러다임으로도 발전  
- 이 볼륨에서는 [Phoenix LiveView 1.0](https://hexdocs.pm/phoenix_live_view/) 릴리스를 강조  
- LiveView는 [HTMX](https://htmx.org/) 또는 [Hotwire](https://hotwired.dev/) 와 유사한 HTML-over-the-wire 솔루션으로 개발자가 완전히 서버 렌더링 HTML로 풍부하고 실시간 사용자 경험 구축 가능  
  
**95. Presidio**  
- [Presidio](https://microsoft.github.io/presidio/)는 구조화 및 비구조화 텍스트에서 민감한 데이터를 [identifying](https://microsoft.github.io/presidio/analyzer/) 하고 [anonymizing](https://microsoft.github.io/presidio/anonymizer/) 하기 위한 데이터 보호 SDK  
- named entity recognition, 정규 표현식, 규칙 기반 로직을 사용하여 신용카드 번호, 이름, 위치 같은 개인 식별 정보(PII) 감지  
- Presidio는 [custom](https://microsoft.github.io/presidio/tutorial/02_recognizers/) 엔티티 인식기 및 익명화 파이프라인을 지원하여 조직이 자체 프라이버시 및 규정 준수 요구사항에 맞게 조정 가능  
- 팀은 LLM과 통합할 때 엄격한 데이터 공유 제어가 있는 엔터프라이즈 환경에서 Presidio 사용  
  
**96. Pydantic AI**  
- [Pydantic AI](https://ai.pydantic.dev/)는 프로덕션에서 GenAI 에이전트를 구축하기 위한 안정적이고 잘 지원되는 오픈소스 프레임워크로 계속 입증  
- 신뢰할 수 있는 [Pydantic](https://docs.pydantic.dev/) 기반 위에 구축되어 강력한 타입 안전성, OpenTelemetry를 통한 일급 가시성, 내장 평가 도구 제공  
- 2025년 9월 4일의 버전 1.0 릴리스는 성숙도의 중요한 이정표 표시  
- 그 이후로 단순성과 유지 관리 가능성으로 신뢰할 수 있고 널리 채택되어 LangChain 및 [LangGraph](https://www.langchain.com/langgraph) 같은 다른 인기 에이전트 프레임워크 대열에 합류  
  
**97. Tauri**  
- [Tauri](https://tauri.app/)는 단일 웹 UI 코드베이스를 사용하여 고성능 데스크톱 애플리케이션을 구축하기 위한 프레임워크  
- Electron 같은 전통적인 웹 래퍼와 달리 Tauri는 [Rust](https://www.rust-lang.org/)를 기반으로 구축되어 운영 체제의 네이티브 webview를 활용하여 더 작은 바이너리와 더 강력한 보안 제공  
- 몇 년 전 Tauri를 처음 평가했으며 그 이후 데스크톱을 넘어 iOS 및 Android 지원으로 확장  
- 최신 버전은 더 유연한 권한 및 범위 모델을 도입하고 이전 권한 목록을 대체하며 원시 데이터 전송을 지원하고 성능을 개선하는 강화된 프로세스 간 통신(IPC) 레이어 특징  
  
##### Assess  
  
**98. Agent Development Kit (ADK)**  
- [Agent Development Kit (ADK)](https://github.com/google/adk)는 단순히 프롬프팅에 의존하기보다는 현대적인 소프트웨어 엔지니어링 규율을 적용하는 AI 에이전트 개발 및 배포를 위한 프레임워크  
- 클래스, 메서드, 워크플로우 패턴, CLI 지원 같은 친숙한 추상화 도입  
- LangGraph 또는 CrewAI 같은 프레임워크와 비교하여 ADK의 강점은 Google의 AI 인프라와의 깊은 통합으로 엔터프라이즈 준비 그라운딩, 데이터 액세스, 모니터링 제공  
- 상호 운용성을 위해 설계되어 도구 래퍼 및 에이전트 간 통신을 위한 [A2A protocol](https://a2a.msft.io/) 지원  
  
**99. Agno**  
- [Agno](https://www.agno.ai/)는 다중 에이전트 시스템을 구축, 실행, 관리하기 위한 프레임워크  
- 완전 자율 에이전트 또는 제어된 단계 기반 워크플로우를 생성할 수 있는 유연성 제공하며 human-in-the-loop, 세션 관리, 메모리, 지식에 대한 내장 지원 포함  
- 인상적인 에이전트 시작 시간과 낮은 메모리 소비로 효율성에 대한 초점 높이 평가  
- Agno는 자체 런타임인 [AgentOS](https://www.agno.ai/agentos)와 함께 제공되며 이는 에이전트 시스템의 간소화된 테스트, 모니터링, 관리를 위한 통합 제어 플레인이 있는 FastAPI 애플리케이션  
  
**100. assistant-ui**  
- [assistant-ui](https://www.assistant-ui.com/)는 AI 채팅 인터페이스를 위한 오픈소스 TypeScript 및 React 라이브러리  
- 메시지 편집 및 분기 전환을 위한 스트리밍, 상태 관리, 일반적인 UX 기능 같은 채팅 UI 구현의 복잡한 부분을 처리하면서 개발자가 Radix 프리미티브를 사용하여 자체 구성 요소 디자인 가능  
- [Vercel AI SDK](https://sdk.vercel.ai/) 및 [LangGraph](https://www.langchain.com/langgraph) 를 포함한 인기 런타임과의 통합을 지원하고 복잡한 사용 사례를 위한 사용자 정의 가능한 런타임 솔루션 제공  
- assistant-ui로 간단한 채팅 인터페이스를 성공적으로 구축했으며 결과에 만족  
  
**101. AutoRound**  
- Intel의 [AutoRound](https://github.com/intel/auto-round)는 LLM 및 vision language models (VLM) 같은 대규모 AI 모델을 정확도 손실을 최소화하면서 압축하기 위한 고급 양자화 알고리듬  
- sign-gradient descent 최적화를 사용하여 모델 크기를 초저비트 너비(2-4비트)로 줄이고 최적 효율성을 위해 레이어 전체에 혼합 비트 너비 적용  
- 이 양자화 프로세스는 또한 매우 빠름: 단일 GPU에서 몇 분 만에 70억 파라미터 모델 양자화 가능  
- AutoRound는 [vLLM](https://vllm.ai/) 및 [Transformers](https://huggingface.co/docs/transformers/) 같은 인기 있는 추론 엔진과 통합되어 모델 양자화를 위한 매력적인 옵션  
  
**102. Browser Use**  
- [Browser Use](https://github.com/browser-use/browser-use)는 LLM 기반 에이전트가 웹 브라우저를 운영하고 웹 애플리케이션과 상호작용할 수 있게 하는 오픈소스 Python 라이브러리  
- 탐색, 데이터 입력, 텍스트 추출을 할 수 있으며 애플리케이션 간 작업을 조정하기 위해 여러 탭 관리 가능  
- 라이브러리는 AI 에이전트가 웹 콘텐츠에서 정보를 액세스, 조작 또는 검색해야 할 때 특히 유용  
- 다양한 LLM을 지원하고 [Playwright](https://playwright.dev/)를 활용하여 더 풍부한 웹 상호작용을 위해 시각적 이해와 HTML 구조 추출을 결합  
  
**103. DeepSpeed**  
- [DeepSpeed](https://www.deepspeed.ai/)는 훈련 및 추론 모두를 위한 분산 딥러닝을 최적화하는 Python 라이브러리  
- 훈련을 위해 [Zero Redundancy Optimizer (ZeRO)](https://www.deepspeed.ai/tutorials/zero/) 및 3D 병렬처리 같은 기술을 통합하여 수천 개의 GPU에서 모델을 효율적으로 확장  
- 추론을 위해 텐서, 파이프라인, 전문가, ZeRO 병렬처리를 커스텀 커널 및 통신 최적화와 결합하여 지연시간 최소화  
- DeepSpeed는 Megatron-Turing NLG (530B) 및 BLOOM (176B)를 포함하여 세계에서 가장 큰 언어 모델 중 일부를 구동  
  
**104. Drizzle**  
- [Drizzle](https://orm.drizzle.team/)은 경량 TypeScript ORM  
- [Prisma ORM](https://www.prisma.io/)과 달리 개발자에게 간단한 SQL 같은 API와 더 전통적인 ORM 스타일 쿼리 인터페이스 모두 제공  
- 기존 데이터베이스에서 스키마 추출도 지원하여 데이터베이스 우선 및 코드 우선 접근법 모두 가능  
- Drizzle은 서버리스 환경을 염두에 두고 설계되었으며 작은 번들 크기를 가지고 [prepared statements](https://orm.drizzle.team/docs/perf-queries#prepared-statement) 지원  
  
**105. Java post-quantum cryptography**  
- 양자 컴퓨터는 계속 빠르게 발전하고 있으며 [AWS Braket](https://aws.amazon.com/braket/) 같은 SaaS 제공이 이제 여러 아키텍처에서 양자 알고리듬에 대한 액세스 제공  
- 3월 이후 Java 24는 [Java post-quantum cryptography](https://openjdk.org/jeps/8331215)를 도입하여 ML-KEM 및 ML-DSA 같은 포스트 양자 암호화 알고리듬에 대한 지원 추가  
- [.Net 10](https://devblogs.microsoft.com/dotnet/announcing-dotnet-10/)도 지원 확대  
- 조언은 간단: 이러한 언어로 소프트웨어를 구축하는 경우 시스템을 미래 보장하기 위해 지금 양자 안전 알고리듬 채택 시작  
  
**106. kagent**  
- [Kagent](https://github.com/kubernetes-sigs/kagent)은 Kubernetes 클러스터 내에서 에이전트 AI를 실행하기 위한 오픈소스 프레임워크  
- LLM 기반 에이전트가 Kubernetes 네이티브 API 및 [Model Context Protocol (MCP)](https://modelcontextprotocol.io/) 통합을 통해 문제 진단, 구성 수정, 가시성 도구와 상호작용 같은 운영 작업을 계획하고 실행할 수 있게 함  
- 목표는 선언적 관리와 자율적 추론을 결합하여 "AgentOps"를 클라우드 네이티브 인프라에 가져오는 것  
- CNCF Sandbox 프로젝트로서 Kagent는 특히 LLM에 운영 관리 기능을 부여하는 위험을 고려할 때 주의해서 도입해야 하며 [toxic flow analysis](https://www.thoughtworks.com/radar/techniques/toxic-flow-analysis) 같은 기술이 이러한 위험을 평가하고 완화할 때 특히 가치 있을 수 있음  
  
**107. LangExtract**  
- [LangExtract](https://github.com/docugami/LangExtract)는 LLM을 사용하여 사용자 정의 지침에 따라 비구조화 텍스트에서 구조화된 정보를 추출하는 Python 라이브러리  
- 임상 노트 및 보고서 같은 도메인별 자료를 처리하여 각 추출된 데이터 포인트를 소스로 추적 가능하게 유지하면서 핵심 세부 정보를 식별하고 구성  
- 추출된 엔티티는 `.jsonl` 파일(언어 모델 데이터를 위한 표준 형식)로 내보낼 수 있으며 맥락 검토를 위한 대화형 HTML 인터페이스를 통해 시각화 가능  
- 팀은 도메인 지식 그래프를 채우기 위해 엔티티를 추출하는 LangExtract를 평가했으며 복잡한 문서를 구조화되고 기계 판독 가능한 표현으로 변환하는 데 효과적임을 발견  
  
**108. Langflow**  
- [Langflow](https://www.langflow.org/)는 LLM 워크플로우를 구축하고 시각화하기 위한 오픈소스 로우코드 플랫폼  
- [LangChain](https://www.langchain.com/) 위에 구축되어 개발자가 드래그 앤 드롭 인터페이스를 통해 프롬프트, 도구, 벡터 데이터베이스, 메모리 구성 요소를 체인으로 연결할 수 있으면서도 고급 로직을 위한 커스텀 Python 코드 지원  
- 완전한 백엔드 코드를 작성하지 않고 에이전트 애플리케이션 프로토타이핑에 특히 유용  
- 그러나 Langflow는 여전히 상대적으로 새롭고 프로덕션 사용을 위한 몇 가지 거친 부분이 있으며 로우코드 플랫폼에 대한 일반적인 주의가 여기에도 적용  
  
**109. LMCache**  
- [LMCache](https://github.com/LMCache/LMCache)는 LLM 서빙 인프라를 가속화하는 키-값(KV) 캐시 솔루션  
- LLM 추론 엔진 풀 전체에 걸친 특수 캐싱 레이어 역할을 하며 채팅 기록이나 문서 컬렉션 같이 여러 번 처리될 가능성이 있는 텍스트에 대한 사전 계산된 KV 캐시 항목 저장  
- 이러한 값을 디스크에 유지함으로써 prefill 계산을 GPU에서 오프로드하여 time-to-first-token (TTFT) 줄이고 RAG 파이프라인, 다중 턴 채팅 애플리케이션, 에이전트 시스템 같은 까다로운 워크로드 전체에서 추론 비용 절감  
- [vLLM](https://vllm.ai/) 또는 NVIDIA Dynamo 같은 주요 추론 서버와 LMCache를 통합할 수 있으며 설정에 미치는 영향 평가 가치 있음  
  
**110. Mem0**  
- [Mem0](https://mem0.ai/)는 AI 에이전트를 위해 설계된 메모리 레이어  
- 순진한 접근법은 종종 전체 채팅 기록을 데이터베이스에 저장하고 향후 대화에서 재사용하여 과도한 토큰 사용으로 이어짐  
- Mem0는 이를 단기 회상과 현저한 사실 및 관계만 추출하고 저장하는 지능형 장기 레이어로 메모리를 분리하는 더 정교한 아키텍처로 대체  
- 아키텍처는 의미론적 유사성을 위한 벡터 저장소와 시간적 및 관계형 데이터를 이해하기 위한 지식 그래프를 결합  
  
**111. Open Security Control Assessment Language (OSCAL)**  
- [Open Security Controls Assessment Language (OSCAL)](https://pages.nist.gov/OSCAL/)는 규정 준수 및 위험 관리에서 자동화를 증가시키고 팀이 텍스트 기반 수동 접근법에서 벗어나도록 돕기 위해 설계된 오픈되고 기계 판독 가능한 정보 교환 형식  
- 미국 국립 표준 기술 연구소(NIST)가 주도하며 OSCAL은 SOC 2 및 PCI 같은 산업 프레임워크와 미국의 FedRAMP, 싱가포르의 Cybersecurity Control Catalogue, 호주의 Information Security Manual 같은 정부 프레임워크와 관련된 보안 제어를 표현하기 위한 [standard representations in XML, JSON and YAML](https://pages.nist.gov/OSCAL/documentation/schema/) 제공  
- OSCAL이 아직 공공 부문 외부에서 널리 채택되지 않았고 생태계가 여전히 성숙 중이지만 보안 평가를 간소화하고 스프레드시트 및 체크박스 연습에 대한 의존을 줄이며 [compliance-as-code](https://www.thoughtworks.com/radar/techniques/compliance-as-code) 및 [continuous compliance](https://www.thoughtworks.com/radar/techniques/continuous-compliance) 플랫폼에 통합될 때 자동화된 규정 준수를 가능하게 하는 잠재력에 흥분  
  
**112. OpenInference**  
- [OpenInference](https://github.com/Arize-ai/openinference)는 AI 애플리케이션을 관찰하기 위해 설계된 규약 및 플러그인 세트로 OpenTelemetry를 보완  
- 기계 학습 프레임워크 및 라이브러리에 대한 표준화된 계측을 제공하여 개발자가 벡터 저장소 검색이나 API 및 검색 엔진에 대한 외부 도구 호출 같은 주변 컨텍스트와 함께 LLM 호출을 추적하는 데 도움  
- 스팬은 모든 OTEL 호환 수집기로 내보낼 수 있어 기존 원격 측정 파이프라인과의 정렬 보장  
- 이전에 일반적으로 사용되는 LLM 가시성 플랫폼인 [Langfuse](https://langfuse.com/)를 블립했으며 [OpenInference SDK](https://github.com/Arize-ai/openinference/tree/main/python/instrumentation)는 Langfuse 및 기타 OpenTelemetry 호환 가시성 플랫폼에 트레이스를 기록 가능  
  
**113. Valibot**  
- [Valibot](https://valibot.dev/)은 TypeScript의 스키마 검증 라이브러리  
- [Zod](https://zod.dev/) 및 [Ajv](https://ajv.js.org/) 같은 다른 인기 있는 TypeScript 검증 라이브러리처럼 타입 추론을 제공하지만 모듈식 디자인이 차별화  
- 이 아키텍처는 번들러가 효과적인 트리 쉐이킹 및 코드 분할을 수행하여 실제로 사용되는 검증 함수만 포함할 수 있게 함  
- Valibot은 최적 시나리오에서 Zod에 비해 번들 크기를 최대 95%까지 줄일 수 있어 클라이언트 사이드 검증이나 서버리스 함수 같이 번들 크기가 중요한 환경에서 스키마 검증을 위한 매력적인 선택  
  
**114. Vercel AI SDK**  
- [Vercel AI SDK](https://sdk.vercel.ai/)는 TypeScript 생태계에서 AI 기반 애플리케이션 및 에이전트를 구축하기 위한 오픈소스 풀스택 툴킷  
- 두 가지 주요 구성 요소로 구성: AI SDK Core는 텍스트 생성, 구조화된 객체 생성, 도구 호출을 지원하는 모델 독립적 LLM 호출 표준화  
- AI SDK UI는 [assistant-ui](https://www.assistant-ui.com/) 와 유사하게 React, Vue, Next.js, Svelte에서 스트리밍, 상태 관리, 실시간 UI 업데이트로 프론트엔드 개발 단순화  
- 이미 TypeScript 및 Next.js 생태계 내에서 작업하는 팀의 경우 Vercel AI SDK는 풍부한 클라이언트 사이드 경험으로 AI 애플리케이션을 구축하는 빠르고 원활한 방법 제공

## Comments



_No public comments on this page._
