Thoughtworks Technology Radar, Volume 33 공개
(thoughtworks.com)- 테크닉/도구/플랫폼/개발언어 및 프레임워크 분야의 최신 트렌드들을 Adopt(도입 권장), Trial(시험 사용), Assess(평가), Hold(주의) 4단계로 시각화 및 설명
- 주요 테마 4개: AI 인프라 오케스트레이션, MCP 기반 에이전트 부상, AI 코딩 워크플로우, AI 안티패턴 출현
AI에 인프라 오케스트레이션 도입
- AI 워크로드가 조직들로 하여금 훈련과 추론을 위한 대규모 GPU 플릿 오케스트레이션을 요구
- 단일 GPU의 HBM 용량(80GB) 한계를 넘는 대형 모델이 증가하면서 분산 훈련과 멀티 GPU 추론이 필수화됨
- 플랫폼 팀은 복잡한 다단계 파이프라인을 구축하고 처리량과 지연시간을 지속적으로 조정
- Nvidia DCGM Exporter로 플릿 원격측정 수행, 토폴로지 인식 스케줄링으로 인터커넥트 대역폭이 가장 높은 위치에 작업 배치
- Kubernetes는 AI 워크로드를 대규모로 관리하는 핵심 기반이지만, microVM(Firecracker), Uncloud 같은 대안 플랫폼도 주목받고 있음
- Kueue를 통한 대기열 및 할당량 관리, 토폴로지 인식 스케줄링(topology-aware scheduling), gang scheduling 등 GPU 링크 간 빠른 통신을 고려한 배치 전략이 발전 중
- NVLink/NVSwitch 같은 고속 GPU 간 링크와 RDMA를 갖춘 연속적 데이터센터 "아일랜드"(랙 또는 파드) 내 멀티-GPU 작업 배치
- Kubernetes의 최근 멀티-GPU 및 NUMA 인식 API 개선이 이러한 역량을 강화하며, 장치 간 대역폭 향상, 테일 레이턴시 감소, 효과적 활용률 증가
- AI 코딩 워크플로우 수요 증가와 MCP로 향상된 에이전트가 부상하며 AI 인프라에서 빠른 혁신이 예상됨
- GPU 인식 오케스트레이션이 기본 요건이 되고 있으며, 토폴로지가 이제 일급 스케줄링 고려사항으로 부상
MCP 기반 에이전트 부상
-
MCP와 에이전트의 동시 부상, 그리고 이를 중심으로 구축된 프로토콜 및 도구 생태계 확장이 이번 Radar의 주요 주제
- MCP가 에이전트 구동 및 효율적·반자율적 작동을 위한 궁극의 통합 프로토콜로 자리매김하고 있음
- 거의 모든 주요 벤더가 MCP 지원을 추가하며, 에이전트 중심 워크플로우가 빠르게 성장
- 에이전트 워크플로우의 지속적 혁신이 관찰되며, 컨텍스트 엔지니어링이 모델의 동작과 자원 효율 최적화의 핵심으로 부상함
- A2A(Agent-to-Agent), AG-UI 같은 신규 프로토콜이 멀티 에이전트 협업 앱 구축의 복잡도를 낮춤
- AGENTS.md, Anchoring coding agents, Context7 MCP 서버 등의 기술이 실제 개발 워크플로우에 채택됨
- AI 생태계의 특성상 각 Radar마다 새로운 혁신이 폭발적으로 발생
— 지난번은 RAG이었고 이번은 에이전트 워크플로우와 이를 지원하는 도구, 기법, 플랫폼의 성장하는 집합체(constellation)- 그리고 주목할 만한 AI 안티패턴도 일부 등장
AI 코딩 워크플로우
- AI가 소프트웨어 구축 및 유지보수 방식을 변화시키고 있으며, 최근 논의에서 지배적인 주제
- 레거시 코드베이스 이해를 위한 AI 활용부터 포워드 엔지니어링을 위한 GenAI까지 소프트웨어 가치 사슬 전반에 전략적으로 내재화됨
- 코딩 에이전트에 지식을 더 효과적으로 공급하는 방법 학습
- 팀들은 AGENTS.md 파일을 통한 맞춤형 지침 정의, Context7 같은 MCP 서버와 통합하여 최신 종속성 문서 가져오기 등 새로운 실천법 실험중
- AI가 개별 기여자뿐 아니라 팀 전체를 증폭해야 한다는 인식 증가
- 큐레이션된 공유 지침과 커스텀 명령어가 공평한 지식 확산 보장을 위해 등장함
- 도구 환경은 활기차게 진화중:
- 디자이너는 UX Pilot과 AI Design Reviewer 를 활용, 개발자는 v0와 Bolt로 셀프서비스 UI 프로토타이핑 통한 신속한 프로토타입 제작
- 스펙 기반 개발의 범위, 세분화 수준, 점진적 전달의 단일 진실 공급원 역할 가능성 관련 논쟁 지속
- 흥분 속에서도 AI 생성 코드에 대한 안일함이 여전히 공통 우려사항으로 남아, AI가 엔지니어링을 가속화할 수 있지만 인간의 판단은 여전히 필수불가결함을 상기
새로운 AI 안티패턴 출현
- 산업 전반의 AI 채택 가속화가 효과적 실천법과 함께 신흥 안티패턴도 표면화
- GenAI를 활용한 셀프서비스 일회용 UI 프로토타이핑 같은 개념의 명확한 유용성 인정하면서도, 조직을 AI 가속 Shadow IT 안티패턴으로 이끌 잠재성을 인식
- MCP(Model Context Protocol) 가 주목받으면서 많은 팀이 순진한 API-to-MCP 변환 안티패턴에 빠짐
-
Text-to-SQL 솔루션의 효능이 초기 기대에 미치지 못함, AI 생성 코드에 대한 안일함이 여전히 관련 우려사항으로 지속
-
스펙 기반 개발 같은 신흥 실천법 내에서도 전통적 소프트웨어 엔지니어링 안티패턴으로 회귀할 위험 존재
— 특히 과도한 사전 명세와 빅뱅 릴리스에 대한 편향
-
스펙 기반 개발 같은 신흥 실천법 내에서도 전통적 소프트웨어 엔지니어링 안티패턴으로 회귀할 위험 존재
- GenAI가 전례 없는 속도와 규모로 발전하고 있어 새로운 안티패턴이 빠르게 등장할 것으로 예상
- 팀은 처음에는 효과적으로 보이지만 시간이 지나면서 성능이 저하되고 피드백을 늦추거나, 적응성을 훼손하거나, 책임성을 모호하게 만드는 패턴에 대해 경계 유지 필요
ThoughtWorks Technology Radar Volume 33
[Techniques]
Adopt
1. Continuous compliance
- 소프트웨어 개발 프로세스와 기술이 규제 및 보안 표준을 자동화를 통해 지속적으로 충족하도록 보장하는 실천법
- Open Policy Agent 같은 policy-as-code 도구 통합, CD 파이프라인 내 SBOM 생성으로 SLSA 지침에 맞춰 초기 단계에서 규정 준수 문제 감지 및 해결
- 규칙과 모범 사례를 코드화하면 병목 현상 없이 팀 전체에 일관되게 표준 강제 가능
- AI 생성 코드에 대한 안일함 위험 증가로 개발 프로세스에 규정 준수 내재화가 그 어느 때보다 중요
2. Curated shared instructions for software teams
- AI를 소프트웨어 전달에 적극적으로 사용하는 팀을 위해 개인 프롬프팅을 넘어 큐레이션된 지침으로 이동
- AGENTS.md 같은 지침 파일을 프로젝트 리포지토리에 직접 커밋하는 것이 가장 직관적인 구현 방법
- Cursor, Windsurf, Claude Code 등 대부분의 AI 코딩 도구가 커스텀 슬래시 명령이나 워크플로우를 통한 지침 공유 지원
- 프롬프트가 개선되는 즉시 전체 팀이 혜택을 받아 최고의 AI 지침에 일관된 접근 보장
3. Pre-commit hooks
- Git hooks는 오랫동안 존재했지만 여전히 충분히 활용되지 않음
- AI 지원 및 에이전트 코딩의 부상으로 실수로 비밀이나 문제가 있는 코드를 커밋할 위험 증가
- continuous integration 같은 코드 검증 메커니즘이 많지만, pre-commit 훅은 더 많은 팀이 채택해야 할 간단하고 효과적인 안전장치
- 비밀 스캐닝 같이 이 워크플로우 단계에서 가장 효과적으로 포착되는 위험에 집중하여 최소화하고 초점을 맞추는 것이 최선
4. Using GenAI to understand legacy codebases
- GenAI를 사용한 레거시 코드베이스 이해가 대규모 복잡 시스템 이해를 크게 가속화
- Cursor, Claude Code, Copilot, Windsurf, Aider, Cody, Swimm, Unblocked, PocketFlow-Tutorial-Codebase-Knowledge 같은 도구가 비즈니스 규칙 표면화, 로직 요약, 종속성 식별 지원
- 오픈 프레임워크 및 직접 LLM 프롬프팅과 함께 사용 시 레거시 코드베이스 이해 시간 극적으로 단축
- GraphRAG 같은 고급 접근법의 설정 노력은 특히 분석되는 코드베이스의 크기와 복잡성에 따라 달라지지만, 생산성에 미치는 영향은 일관되고 상당함
Trial
5. AGENTS.md
- 프로젝트에서 작업하는 AI 코딩 에이전트에 지침을 제공하는 공통 형식
- 본질적으로 에이전트를 위한 README 파일이며, Markdown 이외의 필수 필드나 포맷 없음
- LLM 기반 코딩 에이전트가 인간이 작성하고 읽을 수 있는 지침을 해석하는 능력에 의존
- 코딩 환경의 도구 사용 팁, 테스트 지침, 커밋 관리를 위한 선호 관행 포함이 일반적 사용
6. AI for code migrations
- 코드 마이그레이션은 언어 재작성부터 종속성이나 프레임워크 업그레이드까지 다양한 형태이며 몇 달의 수동 작업이 필요한 경우가 많음
- .NET framework version 업그레이드 팀이 프로세스 단축을 위해 AI 사용 실험
- 과거 OpenRewrite 같은 결정론적 규칙 기반 리팩토링 도구 사용, AI만으로는 비용이 많이 들고 대화가 방황하기 쉬움
- 전체 업그레이드를 위임하는 대신 컴파일 오류 분석, 마이그레이션 diff 생성, 테스트 반복 검증 같은 더 작고 검증 가능한 단계로 프로세스 분해
- Google의 대규모 int32-to-int64 migration 같은 업계 사례도 유사한 추세 반영
7. Delta Lake liquid clustering
- Delta Lake 테이블을 위한 기술로 파티셔닝 및 Z-ordering의 대안 역할
- 역사적으로 Delta 테이블의 읽기 성능 최적화는 예상된 쿼리 패턴 기반으로 테이블 생성 시 파티션 및 Z-order 키 정의 필요
- liquid clustering은 지정된 키를 기반으로 데이터를 클러스터링하는 트리 기반 알고리듬 사용
- 모든 데이터를 다시 쓰지 않고도 점진적으로 변경 가능하여 다양한 쿼리 패턴 지원에 더 큰 유연성 제공
- Databricks Runtime for Delta Lake는 과거 쿼리 워크로드 분석, 최적 컬럼 식별, 그에 따른 데이터 클러스터링으로 자동 liquid clustering 지원
8. Self-serve UI prototyping with GenAI
- Claude Code, Figma Make, Miro AI, v0 같은 도구가 제품 관리자가 텍스트 프롬프트에서 직접 대화형, 사용자 테스트 가능 프로토타입 생성 가능
- 수동으로 와이어프레임 제작 대신 팀이 몇 분 만에 기능적 HTML, CSS, JS 아티팩트 생성 가능
- 이러한 "일회용" 프로토타입은 세련됨을 빠른 학습과 맞바꾸어 디자인 스프린트 중 초기 검증에 이상적
- 더 높은 충실도는 세부 사항에 대한 잘못된 초점이나 프로덕션 노력에 대한 비현실적 기대로 이어질 수 있어 명확한 프레이밍과 기대 관리 필수
9. Structured output from LLMs
- LLM이 JSON이나 특정 프로그래밍 클래스 같은 사전 정의된 형식으로 응답을 생성하도록 제약하는 실천법
- LLM의 일반적으로 예측 불가능한 텍스트를 기계 판독 가능하고 결정론적인 데이터 계약으로 변환하여 신뢰할 수 있는 프로덕션급 애플리케이션 구축에 필수적
- 단순 프롬프트 기반 포맷팅과 model-native structured outputs부터 Outlines 및 Instructor 같은 도구를 사용한 더 강력한 제약된 디코딩 방법까지 접근법 다양
- 다양한 문서 유형에서 복잡하고 구조화되지 않은 데이터를 추출하여 다운스트림 비즈니스 로직을 위한 구조화된 JSON으로 변환하는 데 성공적으로 사용
10. TCR (Test && Commit || Revert)
- 테스트 주도 개발에서 파생된 프로그래밍 워크플로우로 간단한 규칙을 통해 매우 작고 지속적인 단계 촉진
- 각 변경 후 테스트가 통과하면 변경 사항이 커밋되고, 실패하면 변경 사항이 되돌려짐
- 코드베이스 내에서 이 주기를 자동화하는 스크립트만 정의하면 되어 구현이 간단
- Kent Beck의 정식 article에서 처음 소개된 TCR은 YAGNI 및 KISS 같은 긍정적 코딩 실천법 강화
Assess
11. AI-powered UI testing
- 이전 Radar에서 AI 기반 UI 테스트는 주로 탐색적 테스트에 초점을 맞췄으며, LLM의 비결정론이 불안정성을 야기할 수 있다고 언급
- MCP의 부상으로 Playwright 및 Selenium 같은 주요 UI 테스트 프레임워크가 자체 MCP 서버(playwright-mcp, mcp-selenium) 도입
- 네이티브 기술을 통한 신뢰할 수 있는 브라우저 자동화 제공으로 코딩 어시스턴트가 Playwright 또는 Selenium에서 신뢰할 수 있는 UI 테스트 생성 가능
- 최신 Playwright 릴리스의 Playwright Agents 같은 개발에 흥분하며 더 실용적인 지침과 현장 경험 출현 기대
12. Anchoring coding agents to a reference application
- 과거 tailored service templates 패턴을 블립했으며, 이는 마이크로서비스를 채택하는 조직이 새 서비스를 부트스트랩하고 기존 인프라와 원활하게 통합하는 데 도움
- 시간이 지남에 따라 새로운 종속성, 프레임워크, 아키텍처 패턴이 등장하면서 이러한 템플릿과 기존 서비스 간의 코드 드리프트가 증가하는 경향
- 코딩 에이전트 시대에 우수한 실천법과 아키텍처 일관성 유지를 위해 anchoring coding agents to a reference application 실험
- Model Context Protocol (MCP) 서버가 참조 템플릿 코드와 커밋 diff를 모두 노출하여 에이전트가 드리프트를 감지하고 수리 제안 가능
13. Context engineering
- 추론 중 LLM에 제공되는 정보의 체계적인 설계 및 최적화로 원하는 출력을 안정적으로 생성
- 프롬프트, 검색된 데이터, 메모리, 지침, 환경 신호 같은 맥락 요소의 구조화, 선택, 순서 지정 포함
- 프롬프트 문구에만 초점을 맞추는 prompt engineering과 달리 context engineering은 전체 맥락 구성 고려
- 오늘날 엔지니어는 세 영역으로 그룹화할 수 있는 다양한 개별 기술 사용: Context setup, Context management for long-horizon tasks, Dynamic information retrieval
14. GenAI for forward engineering
- AI 생성된 레거시 코드베이스 설명을 통해 레거시 시스템을 현대화하는 신흥 기술
- 레거시 코드가 무엇을 하는지(사양)에 초점을 맞춘 명시적 단계 도입하면서 현재 구현 방법을 의도적으로 숨김
- spec-driven development와 관련되지만 레거시 현대화에 특별히 적용
- reverse-engineering → design/solutioning → forward-engineering 루프를 따라 인간과 AI 에이전트 모두 구현에 커밋하기 전에 더 높은 수준에서 추론 가능
15. GraphQL as data access pattern for LLMs
- context engineering을 향상시키는 균일하고 모델 친화적인 데이터 액세스 레이어 생성을 위한 신흥 접근법
- 모델에 직접 데이터베이스 액세스 권한을 부여하지 않고 구조화되고 쿼리 가능한 데이터 노출 가능
- 각 사용 사례에 대해 새 엔드포인트나 필터가 필요한 REST API와 달리 GraphQL은 모델이 필요한 데이터만 검색 가능
- 잘 정의된 GraphQL 스키마는 LLM이 사용 가능한 엔티티와 관계에 대해 추론하는 데 사용할 수 있는 메타데이터 제공
16. Knowledge flows over knowledge stocks
- "팀 간 정보 공유 방식을 개선하는 방법"에 대한 질문을 자주 받음
- 시스템 사고에서 차용한 관점인 knowledge flows and knowledge stocks 개념이 가치 있음
- 조직의 지식을 시스템으로 보도록 장려 - 스톡은 축적된 지식을 나타내고 플로우는 지식이 조직을 통해 이동하고 진화하는 방식
- 외부 지식의 플로우를 조직으로 증가시키면 혁신 촉진 경향, communities of practice를 설립하는 것이 플로우를 개선하는 검증된 방법
17. LLM as a judge
- LLM을 판사로 사용하여 다른 시스템(일반적으로 LLM 기반 생성기)의 출력 평가는 생성 AI에서 확장 가능하고 자동화된 평가를 제공할 잠재력으로 주목
- 새롭게 인식된 복잡성과 위험을 반영하여 이 블립을 Trial에서 Assess로 이동
- 평가는 position bias, verbosity bias, 낮은 견고성에 취약하며, 더 심각한 문제는 scaling contamination
- 이러한 결함에 대응하기 위해 LLMs as a jury(합의를 위해 여러 모델 사용) 또는 평가 중 chain-of-thought 추론 같은 개선된 기술 탐색
18. On-device information retrieval
- 검색, 컨텍스트 인식, retrieval-augmented generation (RAG)이 완전히 사용자 장치(모바일, 데스크톱 또는 에지 장치)에서 실행되도록 하는 기술
- 프라이버시와 계산 효율성 우선시하며 경량 로컬 데이터베이스와 온디바이스 추론에 최적화된 모델 결합
- 유망한 구현은 sqlite-vec(임베디드 데이터베이스 내 벡터 검색 지원하는 SQLite 확장)과 EmbeddingGemma(Gemma 3 아키텍처 기반 3억 파라미터 임베딩 모델) 결합
- 로컬 우선 애플리케이션 및 데이터 주권, 낮은 지연시간, 프라이버시가 중요한 기타 사용 사례에 평가 권장
19. SAIF
- SAIF (Secure AI Framework)는 Google이 AI 보안 위험 관리를 위한 실용적 가이드를 제공하기 위해 개발한 프레임워크
- 데이터 중독 및 프롬프트 주입 같은 일반적 위협을 명확한 위험 맵, 구성 요소 분석, 실용적 완화 전략을 통해 체계적으로 다룸
- 에이전트 시스템 구축의 진화하는 위험에 대한 초점이 특히 시의적절하고 가치 있음
- LLM 사용 및 AI 기반 애플리케이션의 보안 실천법을 강화하는 데 사용할 수 있는 간결하고 실행 가능한 플레이북 제공
20. Service mesh without sidecar
- 사이드카 기반 서비스 메시의 비용과 운영 복잡성이 지속됨에 따라 Istio ambient mode 같은 사이드카 없는 서비스 메시 옵션 출현에 흥분
- Ambient mode는 두 가지 주요 구성 요소 간 관심사 분리하는 계층화된 아키텍처 도입: 노드당 L4 프록시(ztunnel)와 네임스페이스당 L7 프록시(Waypoint proxy)
- ztunnel은 L3 및 L4 트래픽이 효율적이고 안전하게 전송되도록 보장, 노드의 모든 ID에 대한 인증서 가져오기 및 ambient 지원 워크로드와의 트래픽 리디렉션 처리
- Waypoints proxy는 선택적 ambient mode 구성 요소로 트래픽 관리, 보안, 가시성 같은 더 풍부한 Istio 기능 활성화
21. Small language models
- 여러 Technology Radar 볼륨에 걸쳐 small language models (SLMs)의 꾸준한 발전 관찰
- 에이전트 솔루션 구축에 대한 관심 증가로 SLM이 에이전트 AI를 효율적으로 구동할 수 있다는 증거 증가
- 대부분의 현재 에이전트 워크플로우는 고급 추론이 필요하지 않은 좁고 반복적인 작업에 초점을 맞춰 SLM에 적합
- Phi-3, SmolLM2, DeepSeek 같은 SLM의 지속적 발전으로 이러한 작업에 충분한 기능 제공
22. Spec-driven development
- AI 지원 코딩 워크플로우에 대한 신흥 접근법으로 용어의 정의는 여전히 진화 중
- 일반적으로 구조화된 기능 사양으로 시작한 다음 여러 단계를 거쳐 더 작은 조각, 솔루션, 작업으로 분해하는 워크플로우 지칭
- Amazon의 Kiro는 사용자를 요구사항, 디자인, 작업 생성의 세 워크플로우 단계로 안내
- GitHub의 spec-kit은 유사한 3단계 프로세스를 따르지만 더 풍부한 오케스트레이션, 구성 가능한 프롬프트, 항상 따라야 하는 불변 원칙을 정의하는 "constitution" 추가
23. Team of coding agents
- 개발자가 여러 AI 코딩 에이전트를 조율하는 기술로 각각 architect, back-end specialist, tester 같은 고유한 역할 보유
- Claude Code, Roo Code, Kilo Code 같은 도구가 서브에이전트 및 여러 운영 모드 지원
- LLM에 특정 역할과 페르소나 할당이 출력 품질을 개선한다는 입증된 원칙을 기반으로 단일 범용 에이전트에 의존하는 대신 여러 역할별 에이전트 조정으로 더 나은 결과 달성
- 오케스트레이션된 다단계 AI 지원 개발 파이프라인으로의 전환 표시
24. Topology-aware scheduling
- GPU 및 LPU는 더 이상 독립 장치가 아니라 성능이 배치 및 토폴로지에 따라 달라지는 긴밀하게 결합된 가속기 네트워크
- NVIDIA의 NVL72 같은 랙 규모 시스템에서 72개의 GPU가 13TB 이상의 VRAM 공유하며 단일 가속기로 작동하지만 워크로드가 스위치 아일랜드를 교차하면 집합 작업이 병목 현상으로 전환
- Groq의 컴파일 타임, 소프트웨어 스케줄링된 아키텍처는 결정론적 데이터 이동을 가정하며 무작위 스케줄링은 이러한 가정과 예측 가능성 파괴
- 토폴로지를 무시하는 순진한 스케줄러는 종종 멀티-GPU 워크로드를 임의로 분산시켜 단계 시간과 효율성 저하 초래
25. Toxic flow analysis for AI
- MCP의 S가 "security"를 의미한다는 익숙한 농담이 매우 실제적인 문제 숨김
- 에이전트가 도구 호출이나 API 호출을 통해 서로 통신할 때 lethal trifecta로 알려진 것을 빠르게 만날 수 있음: 개인 데이터 액세스, 신뢰할 수 없는 콘텐츠 노출, 외부 통신 능력
- 세 가지를 모두 가진 에이전트는 매우 취약하며, LLM은 입력의 지침을 따르는 경향이 있어 신뢰할 수 없는 소스로 데이터 유출 지시를 포함하는 콘텐츠가 쉽게 데이터 누출로 이어질 수 있음
- toxic flow analysis는 에이전트 시스템의 흐름 그래프를 검사하여 추가 조사를 위한 잠재적으로 안전하지 않은 데이터 경로 식별
Hold
26. AI-accelerated shadow IT
- AI가 비코더가 IT 부서를 기다리는 대신 소프트웨어를 직접 구축하고 통합하는 장벽 낮춤
- 이것이 잠금 해제하는 잠재력에 흥분하지만 AI-accelerated shadow IT의 첫 징후에 경계
- 노코드 워크플로우 자동화 플랫폼이 이제 AI API 통합(예: OpenAI 또는 Anthropic) 지원하여 AI를 덕트 테이프로 사용 유혹 - 이전에는 불가능했던 통합 연결
- 동시에 AI 코딩 어시스턴트가 더 에이전트화되어 기본 교육을 받은 비코더가 내부 유틸리티 애플리케이션 구축 가능
27. Capacity-driven development
- 현대 소프트웨어 개발 실천법 성공의 핵심은 작업 흐름에 대한 초점 유지
- Stream-aligned 팀은 사용자 여정이나 제품 같은 단일 가치 있는 흐름에 집중하여 엔드투엔드 가치를 효율적으로 제공
- 그러나 이러한 방식으로 정렬된 팀이 여유 용량이 있을 때 다른 제품이나 스트림의 기능을 맡는 capacity-driven development를 향한 우려스러운 추세 관찰
- 단기적으로는 효율적으로 보일 수 있지만 수요 급증 처리에 가장 적합한 로컬 최적화이며 정규화되면 인지 부하와 기술 부채 증가
28. Complacency with AI-generated code
- AI 코딩 어시스턴트와 에이전트가 주목을 받으면서 complacency with AI-generated code에 대한 우려를 강조하는 데이터와 연구 증가
- 이러한 도구가 개발 가속화할 수 있다는 충분한 증거가 있지만, 연구는 시간이 지남에 따라 코드 품질이 저하될 수 있음을 보여줌
- GitClear의 2024 research에서 중복 코드와 코드 churn이 예상보다 많이 증가한 반면 커밋 이력의 리팩토링 활동은 감소
- Microsoft의 지식 근로자에 대한 research는 AI 기반 자신감이 종종 비판적 사고를 희생하여 나타난다는 것을 보여줌
29. Naive API-to-MCP conversion
- 조직은 내부 API를 Model Context Protocol (MCP)로 원활하고 직접적으로 변환하여 AI 에이전트가 기존 시스템과 상호 작용하도록 하려는 열망
- MCP link 및 FastAPI-MCP 같은 도구가 이러한 변환을 지원하려는 증가하는 수
- 이러한 naive API-to-MCP conversion에 반대하며, API는 일반적으로 인간 개발자를 위해 설계되어 AI가 함께 연결할 때 과도한 토큰 사용, 맥락 오염, 에이전트 성능 저하로 이어질 수 있는 세분화된 원자적 작업으로 구성
- 이러한 API는 특히 내부 API의 경우 민감한 데이터를 노출하거나 파괴적 작업을 허용하는 경우가 많음
30. Standalone data engineering teams
- 제공하는 스트림 정렬 비즈니스 도메인과 별도로 데이터 파이프라인과 제품을 개발하고 소유하는 별도의 데이터 엔지니어링 팀 조직은 비효율성과 약한 비즈니스 결과로 이어지는 안티패턴
- 이 구조는 DevOps, 테스트 또는 배포 기능을 분리하는 과거 실수를 반복하여 지식 사일로, 병목 현상, 노력 낭비 생성
- 긴밀한 협업 없이 데이터 엔지니어는 종종 의미 있는 데이터 제품 설계에 필요한 비즈니스 및 도메인 컨텍스트 부족하여 채택과 가치 모두 제한
- 대신 데이터 플랫폼 팀은 공유 인프라 유지에 초점을 맞추고 교차 기능 비즈니스 팀이 data mesh 원칙에 따라 자체 data products를 구축하고 소유해야 함
31. Text to SQL
- Text to SQL은 LLM을 사용하여 자연어를 실행 가능한 SQL로 번역하지만 신뢰성이 기대에 미치지 못하는 경우가 많음
- 감독되지 않은 워크플로우에서의 사용을 권장하지 않도록 이 블립을 Hold로 이동 - 예를 들어 출력이 숨겨지거나 자동화된 사용자 생성 쿼리를 동적으로 변환
- 이러한 경우 LLM은 제한된 스키마 또는 도메인 이해로 인해 종종 환각을 일으켜 잘못된 데이터 검색 또는 의도하지 않은 데이터 수정 위험
- 에이전트 비즈니스 인텔리전스의 경우 직접 데이터베이스 액세스를 피하고 대신 Cube 또는 dbt's semantic layer 같은 관리되는 데이터 추상화 시맨틱 레이어 사용
[Platforms]
Adopt
32. Arm in the cloud
- 클라우드의 Arm compute instances는 전통적인 x86 기반 인스턴스에 비해 비용 및 에너지 효율성으로 최근 몇 년 동안 점점 인기
- AWS, Azure, GCP를 포함한 주요 클라우드 제공업체가 이제 강력한 Arm 옵션 제공
- 많은 팀이 마이크로서비스, 오픈소스 데이터베이스, 심지어 고성능 컴퓨팅 같은 워크로드를 최소한의 코드 변경과 약간의 빌드 스크립트 조정만으로 Arm으로 성공적으로 마이그레이션
- multi-arch Docker images 같은 최신 도구가 Arm 및 x86 환경 모두에서 구축 및 배포 단순화
Trial
33. Apache Paimon
- Apache Paimon은 lakehouse architecture를 가능하게 하도록 설계된 오픈소스 데이터 레이크 형식
- Flink 및 Spark 같은 처리 엔진과 원활하게 통합되어 스트리밍 및 배치 작업 모두 지원
- Paimon 아키텍처의 주요 장점은 표준 데이터 레이크 형식과 LSM (log-structured merge tree) 구조의 융합
- 이 조합은 데이터 레이크의 높은 성능 업데이트와 낮은 지연 읽기라는 전통적 과제 해결
34. DataDog LLM Observability
- Datadog LLM Observability는 대형 언어 모델 및 에이전트 애플리케이션 워크플로우에 대한 엔드투엔드 추적, 모니터링, 진단 제공
- 각 프롬프트, 도구 호출, 중간 단계를 스팬과 트레이스로 매핑하고, 지연시간, 토큰 사용량, 오류, 품질 메트릭 추적하며 Datadog의 광범위한 APM 및 가시성 제품군과 통합
- 이미 Datadog를 사용 중이고 비용 구조에 익숙한 조직은 해당 워크로드를 계측할 수 있다고 가정할 때 LLM 가시성 기능이 AI 워크로드에 대한 가시성을 얻는 직관적인 방법임을 알 수 있음
- LLM 계측 구성 및 사용에는 주의와 워크로드 및 구현에 대한 확실한 이해 필요하며 배포 시 데이터 엔지니어와 운영 직원의 긴밀한 협력 권장
35. Delta Sharing
- Delta Sharing은 Databricks 및 Linux Foundation이 개발한 안전한 크로스 플랫폼 데이터 공유를 위한 오픈 표준 및 프로토콜
- 클라우드 독립적이며 조직이 데이터를 복사하거나 복제하지 않고 클라우드 제공업체 및 온프레미스 위치에서 라이브 데이터 공유 가능
- 간단한 REST API를 사용하여 수신자가 pandas, Spark 또는 Power BI 같은 도구를 사용하여 대규모 데이터세트를 검색할 수 있도록 단기 사전 서명된 URL 발급
- 데이터 테이블, 뷰, AI 모델, 노트북 공유 지원하며 강력한 중앙 집중식 거버넌스 및 감사 제공
36. Dovetail
- Dovetail platform은 분산된 정성적 연구 데이터 관리의 지속적인 과제 해결
- 사용자 인터뷰, 전사, 통찰력을 위한 중앙 집중식 리포지토리 제공하여 원시 데이터를 구조화되고 분석 가능한 자산으로 전환
- 제품 발견 워크플로우에서 특히 고객 인용문과 합성된 테마를 제품 가설 및 예상 ROI와 직접 연결하는 증거 추적 생성에 매우 유용
- 그렇게 함으로써 Dovetail은 제품 의사 결정에서 정성적 데이터의 역할 강화
37. Langdock
- Langdock는 조직이 내부 운영을 위한 생성 AI 에이전트 및 워크플로우를 개발하고 실행하는 플랫폼
- 내부 채팅 어시스턴트, 여러 LLM에 연결하기 위한 API 레이어, Slack, Confluence, Google Drive 같은 시스템과 통합하는 에이전트 워크플로우 구축 도구가 있는 통합 환경 제공
- 플랫폼은 엔터프라이즈 규정 준수 표준을 갖춘 온프레미스 및 EU 호스팅 옵션을 제공하여 데이터 주권 강조
- Langdock를 배포하는 조직은 여전히 데이터 거버넌스에 세심한 주의를 기울여야 하며 toxic flow analysis 같은 기술을 사용하여 lethal trifecta 방지
38. LangSmith
- LangSmith는 LangChain 팀의 호스팅 플랫폼으로 LLM 애플리케이션에 대한 가시성, 추적, 평가 제공
- 체인, 도구, 프롬프트의 상세한 트레이스를 캡처하여 팀이 모델 동작을 디버그 및 측정하고 성능 회귀를 추적하며 평가 데이터 세트 관리 가능
- LangSmith는 non-LangChain 워크플로우에 대한 제한된 지원을 가진 독점 SaaS 플랫폼으로 해당 생태계에 이미 투자한 팀에게 가장 매력적
- 프롬프트 평가 및 실험에 대한 통합 지원은 Langfuse 같은 오픈소스 대안보다 특히 더 세련됨
39. Model Context Protocol (MCP)
- Model Context Protocol (MCP)는 LLM 애플리케이션 및 에이전트가 외부 데이터 소스 및 도구와 통합하는 방법을 정의하는 오픈 표준
- MCP는 컨텍스트 및 도구 액세스에 초점을 맞추어 에이전트 간 통신을 관리하는 Agent2Agent (A2A) 프로토콜과 구별
- 지난 블립 이후 MCP 채택이 급증하여 JetBrains (IntelliJ) 및 Apple 같은 주요 기업이 FastMCP 같은 신흥 프레임워크와 함께 생태계에 합류
- 프리뷰 MCP Registry 표준이 이제 공개 및 독점 도구 발견 지원
40. n8n
- n8n은 Zapier 또는 Make(이전 Integromat)와 유사한 fair-code 라이선스 워크플로우 자동화 플랫폼이지만 자체 호스팅, 확장 가능, 코드 제어 가능한 옵션을 원하는 개발자를 위해 구축
- Apache Airflow보다 워크플로우 생성에 대한 로우코드, 시각적 접근법 제공하면서도 JavaScript 또는 Python의 커스텀 코드 지원
- 주요 사용 사례는 여러 서비스를 자동화된 워크플로우로 통합하는 것이지만 LLM을 구성 가능한 데이터 소스, 메모리, 도구와 연결할 수도 있음
- 많은 팀이 n8n을 사용하여 채팅 애플리케이션이나 웹훅으로 트리거되는 에이전트 워크플로우를 빠르게 프로토타입하며 종종 import 및 export 기능을 활용하여 AI 지원으로 워크플로우 생성
41. OpenThread
- OpenThread는 Google이 개발한 Thread 네트워킹 프로토콜의 오픈소스 구현
- IPv6, 6LoWPAN, LR-WPAN 같은 네트워킹 레이어를 포함한 Thread 사양의 모든 주요 기능과 장치가 노드 및 보더 라우터로 작동할 수 있는 메시 네트워크 기능 지원
- OpenThread는 공급업체가 자체 라디오 및 암호화 기능을 통합할 수 있는 유연한 추상화 레이어와 통합 훅을 활용하여 광범위한 하드웨어 플랫폼에서 실행
- 이 성숙한 프로토콜은 상업용 제품에 널리 사용되며 경험상 배터리 작동 저전력 장치부터 대규모 메시 센서 네트워크까지 다양한 IoT 솔루션 구축에 신뢰할 수 있음
Assess
42. AG-UI Protocol
- AG-UI는 풍부한 사용자 인터페이스와 에이전트 간 통신을 표준화하도록 설계된 오픈 프로토콜 및 라이브러리
- 직접 사용자 대면 에이전트에 초점을 맞추며 미들웨어 및 클라이언트 통합을 사용하여 모든 프론트엔드 및 백엔드에 일반화
- 프로토콜은 백엔드 에이전트가 프론트엔드 애플리케이션과 통신하는 일관된 방법을 정의하여 AI와 인간 사용자 간 실시간 상태 저장 협업 가능
- SSE 및 WebSockets를 포함한 여러 전송 프로토콜 지원하고 에이전트 실행의 다양한 상태를 나타내는 표준화된 이벤트 유형 제공
43. Agent-to-Agent (A2A) Protocol
- Agent2Agent (A2A)는 복잡한 다중 에이전트 워크플로우에서 에이전트 간 통신 및 상호작용에 대한 표준을 정의하는 프로토콜
- Agent Cards를 사용하여 기술 발견 및 전송과 보안 체계의 사양을 포함한 에이전트 간 통신의 핵심 요소 설명
- A2A는 에이전트의 상태, 메모리 또는 내부 같은 내부 세부 정보를 노출하지 않고 에이전트 간 통신에 초점을 맞춰 Model Context Protocol (MCP) 보완
- 프로토콜은 장기 실행 작업에 대한 비동기 우선 접근법, 점진적 업데이트를 위한 스트리밍 응답, HTTPS, 인증, 권한 부여를 사용한 보안 전송 같은 모범 사례 촉진
44. Amazon S3 Vectors
- Amazon S3 Vectors는 S3 객체 저장소를 네이티브 벡터 기능으로 확장하여 내장 벡터 저장 및 유사성 검색 기능 제공
- Amazon Bedrock 및 OpenSearch를 포함한 AWS 생태계와 원활하게 통합되며 메타데이터 필터링 및 IAM을 통한 거버넌스 같은 추가 기능 제공
- 여전히 프리뷰 상태이고 제한 사항이 있지만 가치 제안이 매력적임 - 이 비용 효율적이고 접근 가능한 벡터 저장소 접근법은 대량의 데이터 볼륨을 포함하고 낮은 지연시간이 주요 관심사가 아닌 다양한 애플리케이션 가능
45. Ardoq
- Ardoq는 조직이 미래를 더 효과적으로 계획할 수 있도록 아키텍처 지식 기반을 구축, 관리, 확장할 수 있는 엔터프라이즈 아키텍처 (EA) 플랫폼
- 드리프트 및 사일로화 경향이 있는 전통적인 정적 문서와 달리 Ardoq의 데이터 기반 접근법은 기존 시스템에서 정보를 가져와 경관이 진화함에 따라 최신 상태를 유지하는 동적 지식 그래프 생성
- 특히 유용한 기능은 Git과 유사한 분기 및 병합 접근법을 사용하여 what-if 미래 상태를 시각적으로 모델링하고 정의할 수 있는 Ardoq Scenarios
- 아키텍처 전환을 추구하는 조직은 이 프로세스를 간소화하고 가속화할 잠재력을 위해 Ardoq 같은 전용 EA 플랫폼 평가해야 함
46. CloudNativePG
- CloudNativePG는 Kubernetes에서 고가용성 PostgreSQL 클러스터를 호스팅하고 관리하는 것을 단순화하는 Kubernetes Operator
- Kubernetes에서 PostgreSQL 같은 상태 저장 서비스를 실행하는 것은 Kubernetes와 PostgreSQL 복제 모두에 대한 깊은 지식이 필요하여 복잡할 수 있음
- CloudNativePG는 전체 PostgreSQL 클러스터를 단일의 구성 가능한 선언적 리소스로 취급하여 이 복잡성의 대부분을 추상화
- 네이티브 스트리밍 복제를 사용한 원활한 primary/standby 아키텍처 제공하고 자체 치유 기능, 가장 정렬된 복제본을 승격하는 자동 페일오버, 실패한 복제본의 자동 재생성을 포함한 고가용성 기능 즉시 제공
47. Coder
- Coder는 이전에 설명한 development environments in the cloud 실천법에 따라 표준화된 코딩 환경을 빠르게 프로비저닝하는 플랫폼
- Gitpod(현재 Ona로 리브랜딩) 및 GitHub Codespaces 같은 유사한 도구와 비교하여 Coder는 Terraform을 통한 워크스테이션 사용자 정의에 대한 더 큰 제어 제공
- 벤더의 서버가 아닌 클라우드 또는 데이터 센터의 자체 인프라에서 워크스테이션 호스팅
- 이 접근법은 AI 코딩 에이전트를 실행하고 내부 조직 시스템에 액세스하는 기능을 포함하여 더 많은 유연성 제공
48. Graft
- Graft는 에지 및 분산 환경에서 강력하게 일관되고 효율적인 데이터 동기화를 가능하게 하는 트랜잭션 저장소 엔진
- lazy replication을 사용하여 필요 시에만 데이터 동기화, partial replication으로 대역폭 소비 최소화, serializable snapshot isolation으로 데이터 무결성 보장
- 유사한 사용 사례를 위해 Radar에서 Electric을 언급했지만 Graft는 데이터 형식을 부과하지 않고 일관된 페이지 수준 업데이트를 지원하는 트랜잭션 시스템으로 객체 저장소를 전환하는 점이 독특
- 로컬 우선 모바일 애플리케이션 구동, 복잡한 크로스 플랫폼 동기화 관리, 서버리스 또는 임베디드 시스템에서 상태 비저장 복제본의 백본 역할에 적합
49. groundcover
- groundcover는 로그, 트레이스, 메트릭, Kubernetes 이벤트를 단일 창에 통합하는 클라우드 네이티브 가시성 플랫폼
- eBPF를 활용하여 애플리케이션 코드에 에이전트나 SDK를 삽입하지 않고 세분화된 가시성 데이터를 제로 코드 계측으로 캡처
- groundcover의 eBPF 센서는 모니터링하는 각 클러스터의 전용 노드에서 실행되어 관찰하는 애플리케이션과 독립적으로 작동
- 주요 기능에는 심층 커널 수준 가시성, 데이터 프라이버시를 위한 bring-your-own-cloud (BYOC) architecture, 비용을 예측 가능하게 유지하는 데이터 볼륨 독립적 가격 모델 포함
50. Karmada
- Karmada ("Kubernetes Armada")는 여러 Kubernetes 클러스터, 클라우드, 데이터 센터에서 워크로드를 오케스트레이션하는 플랫폼
- 많은 팀이 현재 Flux 또는 ArgoCD 같은 GitOps 도구와 커스텀 스크립트를 결합하여 클러스터 전체에 배포하므로 목적별 솔루션이 환영받음
- Karmada는 Kubernetes 네이티브 API를 활용하여 클라우드 네이티브 환경용으로 이미 구축된 애플리케이션을 변경할 필요 없음
- 멀티 클라우드 관리, 고가용성, 장애 복구, 트래픽 스케줄링을 위한 고급 스케줄링 기능 제공
51. OpenFeature
- 비즈니스가 확장됨에 따라 feature flag 관리는 종종 점점 복잡해지며, 팀은 가장 간단한 feature toggle을 넘어서는 추상화 레이어 필요
- OpenFeature는 feature flag가 정의되고 소비되는 방식을 표준화하는 벤더 독립적이고 커뮤니티 주도 API 사양을 통해 이 레이어 제공
- CLI는 환경 변수 또는 인메모리 구성을 사용한 기본 설정부터 ConfigCat 또는 LaunchDarkly 같은 성숙한 플랫폼까지 여러 스키마 정의에 대한 광범위한 지원 제공
- 그러나 한 가지 중요한 주의 사항이 남아 있음: 팀은 플래그 확산, 애플리케이션 복잡성, 과도한 테스트 오버헤드를 피하기 위해 flag의 다양한 categories of flags를 별도로 그리고 규율 있게 관리해야 함
52. Oxide
- 프라이빗 인프라를 구축하고 운영하는 것은 복잡하며, 이것이 공용 클라우드가 대부분의 조직에 기본값인 주요 이유 중 하나
- 그러나 이를 필요로 하는 사람들을 위해 Oxide는 처음부터 하드웨어와 소프트웨어를 조립하고 통합하는 대안 제공
- 완전히 통합된 시스템 소프트웨어를 실행하는 컴퓨팅, 네트워킹, 저장소가 포함된 사전 구축된 랙 제공
- 팀은 Terraform 및 기타 자동화 도구를 사용하여 Oxide의 IaaS API를 통해 리소스 관리 가능 - Oxide가 온프레미스 탄력적 인프라라고 부르는 것
53. Restate
- Restate는 상태 저장, 내결함성 애플리케이션을 구축할 때 복잡한 분산 시스템 과제를 해결하도록 설계된 지속적 실행 플랫폼
- 실행 저널링을 통해 모든 단계를 기록하여 내결함성, 신뢰할 수 있는 복구, 서비스 간 정확히 한 번 통신 보장
- 플랫폼의 주요 아키텍처 장점은 애플리케이션 로직을 세 가지 지속적 서비스 유형으로 분리: 상태 비저장 함수를 위한 Basic Services, 동시 상태 저장 엔티티를 모델링하는 Virtual Objects, 복잡한 다단계 프로세스를 오케스트레이션하는 Workflows
- 대규모 보험 시스템에서 Restate를 신중하게 평가하고 있으며 지금까지 성능에 매우 만족
54. SkyPilot
- SkyPilot은 온프레미스 또는 클라우드에서 AI 워크로드를 실행하고 확장하기 위한 오픈소스 플랫폼
- UC Berkeley의 Sky Computing Lab에서 개발한 SkyPilot은 지능형 브로커 역할을 하여 주요 클라우드 및 Kubernetes 클러스터에서 가장 저렴하고 사용 가능한 GPU를 자동으로 찾고 프로비저닝하여 종종 컴퓨팅 비용 절감
- 인프라 팀의 경우 Slurm 같은 사용 편의성, 클라우드 네이티브 견고성, 파드에 대한 직접 SSH 액세스, 갱 스케줄링 및 멀티 클러스터 지원 같은 기능을 제공하여 Kubernetes에서 AI 실행 단순화
- 훈련 또는 추론 워크로드의 원활한 확장 지원
55. StarRocks
- StarRocks는 전통적인 OLAP 시스템의 속도와 현대 데이터 레이크하우스의 유연성을 결합하여 실시간 비즈니스 인텔리전스를 재정의하는 분석 데이터베이스
- SIMD 최적화 실행 엔진, 컬럼 저장소, 정교한 비용 기반 옵티마이저를 통해 대규모 규모에서 1초 미만의 쿼리 지연시간 달성
- 이 고성능 아키텍처를 통해 사용자는 사전 계산이나 데이터 복사 없이 Apache Iceberg 같은 오픈 데이터 형식에서 직접 복잡한 분석 실행 가능
- 이 공간에는 많은 플랫폼이 있지만 StarRocks를 극한의 동시성과 일관된 최신 데이터 신선도 모두를 요구하는 비용 효율적인 솔루션의 강력한 후보로 봄
56. Uncloud
- Uncloud는 개발자가 Docker Compose 애플리케이션을 프로덕션으로 가져갈 수 있게 하는 경량 컨테이너 오케스트레이션 및 클러스터링 도구
- Kubernetes의 운영 오버헤드 없이 간단하고 클라우드 같은 경험 제공
- 통신을 위한 안전한 WireGuard 메시 네트워크를 자동으로 구성하고 Caddy 역방향 프록시를 사용하여 자동 HTTPS 및 로드 밸런싱 제공함으로써 크로스 머신 확장 및 무중단 배포 달성
- Uncloud의 주요 아키텍처 장점은 완전히 분산된 설계로 중앙 제어 평면의 필요성을 제거하고 개별 머신이 오프라인으로 전환되어도 클러스터 작업이 기능적으로 유지되도록 보장
[Tools]
Adopt
57. ClickHouse
- ClickHouse는 실시간 분석을 위한 오픈소스 분산 컬럼형 온라인 분석 처리(OLAP) 데이터베이스
- 대규모 데이터 분석을 처리할 수 있는 매우 성능이 뛰어나고 확장 가능한 엔진으로 성숙
- 증분 구체화 뷰, 효율적인 쿼리 엔진, 강력한 데이터 압축으로 대화형 쿼리에 이상적
- 근사 집계 함수에 대한 내장 지원으로 정확도와 성능 간 절충 가능하며 이는 고카디널리티 분석에 특히 유용
58. NeMo Guardrails
- NeMo Guardrails는 NVIDIA의 오픈소스 툴킷으로 LLM 기반 대화형 애플리케이션에 프로그래밍 가능한 안전 및 제어 메커니즘을 쉽게 추가
- 동작 규칙을 정의하고 시행하여 출력이 안전하고 주제에 맞으며 규정을 준수하도록 보장
- 개발자는 유연한 대화 흐름을 생성하고 대화를 관리하며 사전 정의된 경로와 운영 절차를 시행하기 위해 목적별 언어인 Colang를 사용
- NeMo Guardrails는 성능을 위한 비동기 우선 API를 제공하고 콘텐츠 안전성, 보안, 입력 및 출력 조정을 위한 안전장치 지원
59. pnpm
- 지난 Radar 이후 팀으로부터 pnpm에 대한 긍정적인 피드백을 계속 받고 있음
- pnpm은 속도와 디스크 공간 효율성 모두에서 대안에 비해 상당한 성능 향상을 제공하는 Node.js 패키지 관리자
- 여러 프로젝트의 node_modules 폴더에서 중복 패키지를 디스크의 단일 위치로 하드 링크하고 성능을 더욱 향상시키는 증분 파일 수준 최적화 지원
- pnpm이 최소한의 호환성 문제로 훨씬 빠른 피드백 루프를 제공하기 때문에 Node.js 패키지 관리의 기본 선택이 됨
60. Pydantic
- Pydantic은 표준 타입 힌트를 사용하여 데이터 모델을 정의하고 런타임에 데이터 스키마를 강제하는 Python 라이브러리
- 원래 타입 주석은 정적 분석을 위해 Python에 추가되었지만 그 증가하는 다양성이 런타임 검증을 포함한 더 광범위한 사용으로 이어짐
- 빠른 Rust 코어를 기반으로 구축되어 효율적인 데이터 검증, 파싱, 직렬화 제공
- LLM 애플리케이션에서 필수적이 되었으며 일반적으로 structured output from LLMs 기술을 사용하여 LLM의 예측 불가능한 특성 관리
Trial
61. AI Design Reviewer
- AI Design Reviewer는 디자인 감사 또는 휴리스틱 평가를 수행하고 기존 또는 새 디자인에 대한 실행 가능한 피드백을 수집하기 위한 Figma 플러그인
- 감사는 UX 비평, UI 불일치, 접근성 격차, 콘텐츠 품질, 엣지 케이스 시나리오 다룸
- 문제 식별 외에도 팀이 공유 디자인 어휘와 디자인 선택 뒤의 근거를 구축하는 데 도움이 되는 도메인 인식 권장 사항 제공
- 팀은 AI Design Reviewer를 사용하여 레거시 디자인을 분석 - 유지할 긍정적 경험과 해결할 부정적 경험을 식별하여 재디자인을 위한 UX 목표에 정보 제공
62. Barman
- Barman (Backup and Recovery Manager)은 PostgreSQL 서버의 백업 및 재해 복구를 관리하는 오픈소스 도구
- 다양한 방법을 통해 물리적 백업 생성을 단순화하고, 포괄적인 카탈로그로 구성하며, 시점 복구 기능으로 라이브 서버에 백업 복원하는 전체 재해 복구 프로세스 지원
- Barman이 강력하고 사용하기 쉽다는 것을 발견했으며 마이그레이션 활동 중 시점 복구 작업의 속도에 깊은 인상
- 예약된 백업에도 유능하며 스케줄링 및 보존의 복잡하고 혼합된 구성을 처리하는 능력 보유
63. Claude Code
- Anthropic의 Claude Code는 복잡한 다단계 워크플로우를 계획하고 구현하기 위한 자연어 인터페이스와 에이전트 실행 모델을 제공하는 에이전트 AI 코딩 도구
- 1년도 안 되어 출시되었지만 Thoughtworks 내외부의 개발자들에게 이미 널리 채택되어 Trial에 배치
- OpenAI의 Codex CLI, Google의 Gemini CLI, 오픈소스 OpenCode 같은 콘솔 기반 코딩 에이전트가 출시되었고, Cursor, Windsurf, GitHub Copilot 같은 IDE 기반 어시스턴트는 이제 에이전트 모드 포함
- 팀이 코드를 작성하고 수정할 뿐만 아니라 사양, 스토리, 구성, 인프라, 문서를 관리하기 위한 범용 AI 에이전트로 사용하는 것을 봄
64. Cleanlab
- 데이터 중심 AI 패러다임에서 데이터세트 품질을 개선하는 것이 종종 모델 자체를 튜닝하는 것보다 더 큰 성능 향상 제공
- Cleanlab은 이 문제를 해결하도록 설계된 오픈소스 Python 라이브러리로 텍스트, 이미지, 표 형식, 오디오 데이터세트에서 잘못된 레이블링, 이상값, 중복 같은 일반적인 데이터 문제를 자동으로 식별
- confident learning 원칙을 기반으로 구축된 Cleanlab은 모델 예측 확률을 활용하여 레이블 노이즈를 추정하고 데이터 품질 정량화
- 이 모델 독립적 접근법을 통해 개발자는 데이터세트 오류를 진단하고 수정한 다음 개선된 견고성과 정확도를 위해 모델 재훈련 가능
65. Context7
- Context7은 AI 생성 코드의 부정확성을 해결하는 MCP 서버
- LLM이 오래된 훈련 데이터에 의존하는 반면 Context7은 프로젝트에서 사용되는 라이브러리와 프레임워크에 대한 정확하고 최신이며 버전별 코드를 생성하도록 보장
- 프레임워크 소스 리포지토리에서 직접 최신 문서와 기능적 코드 예제를 가져와 프롬프팅 순간에 LLM의 컨텍스트 창에 주입
- 경험상 Context7이 코드 환각과 오래된 훈련 데이터에 대한 의존을 크게 줄임
66. Data Contract CLI
- Data Contract CLI는 Data Contract 사양 작업을 위해 설계된 오픈소스 명령줄 도구
- 데이터 계약을 생성 및 편집할 수 있게 하고 중요하게는 데이터를 계약에 대해 검증할 수 있어 데이터 제품의 무결성과 품질을 보장하는 데 필수적
- CLI는 여러 스키마 정의(Avro, SQL DDL, Open Data Contract Standard 등)에 대한 광범위한 지원을 제공하고 다양한 계약 버전을 비교하여 즉시 주요 변경 사항 감지 가능
- 특히 데이터 메시 공간에서 CI/CD 통합을 통해 데이터 제품 간 계약 거버넌스를 운영화하는 데 유용함을 발견
67. Databricks Assistant
- Databricks Assistant는 Databricks 플랫폼에 직접 통합된 AI 기반 대화형 도구로 데이터 전문가를 위한 상황별 페어 프로그래머 역할
- 범용 코딩 어시스턴트와 달리 Unity Catalog의 메타데이터를 포함하여 Databricks 환경 및 데이터 컨텍스트에 대한 기본 이해의 이점
- Assistant는 코드 스니펫 생성을 넘어 복잡한 다단계 SQL 및 Python 쿼리를 작성하고 오류를 진단하며 상세하고 워크스페이스별 설명 제공 가능
- 이미 Databricks 생태계에 투자한 조직의 경우 생산성을 가속화하고 복잡한 데이터 작업에 대한 진입 장벽을 낮출 수 있음
68. Hoppscotch
- Hoppscotch는 API 개발, 디버깅, 테스트, 공유를 위한 경량 오픈소스 도구
- HTTP, GraphQL, WebSocket을 포함한 여러 프로토콜을 지원하고 웹, 데스크톱, CLI 환경용 크로스 플랫폼 클라이언트 제공
- API 도구 공간이 Postman, Insomnia, Bruno 같은 대안으로 붐비지만 Hoppscotch는 경량 풋프린트와 프라이버시 친화적 디자인으로 두드러짐
- 분석을 생략하고 로컬 우선 저장소를 사용하며 자체 호스팅을 지원하여 강력한 데이터 프라이버시를 유지하면서 API 스크립트를 공유하는 직관적인 방법을 찾는 조직에 강력한 선택
69. NVIDIA DCGM Exporter
- NVIDIA DCGM Exporter는 팀이 분산 GPU 훈련을 대규모로 모니터링하는 데 도움이 되는 오픈소스 도구
- NVIDIA Data Center GPU Manager (DCGM)의 독점 원격 측정을 표준 모니터링 시스템과 호환되는 오픈 형식으로 변환
- GPU 및 호스트 서버 모두에서 GPU 활용도, 온도, 전력, ECC 오류 수 같은 중요한 실시간 메트릭 노출
- 이 가시성은 커스텀 LLM을 미세 조정하거나 장기 실행 GPU 집약적 훈련 작업을 실행하는 조직에 필수적
70. RelationalAI
- 대량의 다양한 데이터가 Snowflake로 가져오면 해당 데이터 내의 고유한 관계와 암시적 규칙이 모호해질 수 있음
- Snowflake Native App으로 구축된 RelationalAI는 팀이 의미 있는 개념을 포착하고 핵심 비즈니스 엔티티를 정의하며 Snowflake 테이블에 대해 직접 복잡한 로직을 내장하는 정교한 모델을 구축할 수 있게 함
- 강력한 Graph Reasoner를 통해 사용자는 이러한 모델을 기반으로 관계형 지식 그래프를 생성, 분석, 시각화 가능
- 대규모의 빠르게 변화하는 데이터세트를 관리하는 조직의 경우 지식 그래프 구축이 사전 모니터링 및 더 풍부하고 실행 가능한 통찰력 생성에 필수적일 수 있음
71. UX Pilot
- UX Pilot는 와이어프레이밍부터 고충실도 시각 디자인 및 검토까지 UX 디자인 프로세스의 여러 단계를 지원하는 AI 도구
- 텍스트 또는 이미지 입력을 받아들이고 자동으로 화면, 플로우, 레이아웃 생성 가능
- Autoflow 기능은 사용자 플로우 전환을 생성하고 Deep Design은 더 풍부하고 상세한 출력 생성
- UX Pilot는 표준 디자인 도구 내에서 정제를 위해 생성된 디자인을 내보내는 Figma 플러그인도 포함
72. v0
- v0는 Radar에서 마지막으로 소개한 이후 진화
- 이제 제품 관리자가 셀프서비스 UI 프로토타입을 더 쉽게 생성하고 조정할 수 있는 디자인 모드 포함
- 최신 릴리스는 큰 컨텍스트 창과 멀티모달 기능을 갖춘 자체 모델을 도입하여 v0가 텍스트 및 시각적 입력 모두에서 UI를 생성하고 개선할 수 있게 함
- 또 다른 주목할 만한 추가 사항은 시스템이 더 복잡한 작업을 분해하고 각각에 적절한 모델을 선택할 수 있는 에이전트 모드
Assess
73. Augment Code
- Augment Code는 대규모 코드베이스에서 깊은 컨텍스트 인식 지원을 제공하는 AI 코딩 어시스턴트
- 코드가 자주 변경되더라도 빠른 코드 인덱스 업데이트와 빠른 검색을 가능하게 하는 고급 context engineering을 통해 두드러짐
- Augment는 Claude Sonnet 4 및 4.5와 GPT-5 같은 모델을 지원하고 GitHub, Jira, Confluence와 통합되며 외부 도구 상호 운용성을 위한 Model Context Protocol (MCP) 지원
- 리팩토링 및 종속성 업그레이드부터 스키마 업데이트까지 복잡한 코드베이스 변경에 대한 단계별 안내 제공
74. Azure AI Document Intelligence
- Azure AI Document Intelligence (이전 Form Recognizer)는 구조화되지 않은 문서에서 텍스트, 표, 키-값 쌍을 추출하여 구조화된 데이터로 변환
- 사전 훈련된 딥러닝 모델을 사용하여 레이아웃과 의미를 해석하고 특수 형식을 위해 노코드 인터페이스를 통해 커스텀 모델 훈련 가능
- 팀 중 하나는 ADI가 수동 데이터 입력을 크게 줄이고 데이터 정확도를 개선하며 보고를 가속화하여 더 빠른 데이터 기반 의사 결정으로 이어졌다고 보고
- Amazon Textract 및 Google Document AI와 마찬가지로 강력한 레이아웃 이해로 엔터프라이즈급 문서 처리 제공
75. Docling
- Docling은 구조화되지 않은 데이터의 고급 문서 처리를 위한 오픈소스 Python 및 TypeScript 라이브러리
- PDF 및 PowerPoint 같은 실제 문서를 깨끗하고 기계 판독 가능한 형식으로 변환하는 종종 간과되는 "마지막 마일" 문제 해결
- 전통적인 추출기와 달리 Docling은 컴퓨터 비전 기반 접근법을 사용하여 문서 레이아웃과 의미 구조를 해석하여 출력이 retrieval-augmented generation (RAG) 파이프라인에 특히 가치 있게 만듦
- 복잡한 문서를 JSON 또는 Markdown 같은 구조화된 형식으로 변환하여 structured output from LLMs 같은 기술 지원
76. E2B
- E2B는 클라우드의 안전하고 격리된 샌드박스에서 AI 생성 코드를 실행하기 위한 오픈소스 도구
- 에이전트는 Firecracker microVM 위에 구축된 이러한 샌드박스를 사용하여 코드를 안전하게 실행하고 데이터를 분석하며 연구를 수행하거나 가상 머신을 운영 가능
- 이를 통해 실행 환경에 대한 완전한 제어와 보안으로 엔터프라이즈급 AI 에이전트를 구축하고 배포 가능
77. Helix editor
- 명령줄 즐겨찾기 Vim을 대체하려는 간단한 텍스트 편집기의 부활이 다소 있었음
- Helix는 Neovim 및 최근 Kakoune 와 함께 이러한 붐비는 공간의 경쟁자 중 하나
- 다소 장난스럽게 자신을 포스트 모던 텍스트 편집기로 묘사하며 Helix는 여러 커서, Tree-sitter 지원, 통합된 Language Server Protocol (LSP) 지원을 특징으로 하며 이것이 처음 우리의 주의를 끌었음
- 진행 중인 플러그인 시스템으로 활발히 개발되고 있으며 전반적으로 Vim 사용자에게 친숙하게 느껴지지만 몇 가지 현대적 편의 기능을 추가하는 경량 모달 편집기
78. Kueue
- Kueue는 할당량 및 리소스 소비를 관리하는 작업 대기열을 위한 Kubernetes 네이티브 컨트롤러
- 다양한 우선순위와 리소스 요구사항을 가진 Kubernetes 워크로드를 처리하기 위한 API를 제공하며 작업을 허용하거나 제거할 시기를 결정하는 작업 수준 관리자로 기능
- 효율적인 리소스 관리, 작업 우선순위 지정, 고급 스케줄링을 위해 설계된 Kueue는 Kubernetes 환경, 특히 Kubeflow 같은 도구를 사용하는 ML 워크로드의 워크로드 실행 최적화에 도움
- cluster-autoscaler 및 kube-scheduler를 대체하기보다는 함께 작동하며 순서, 할당량, 우선순위, 토폴로지 인식을 기반으로 한 작업 허용에 초점
79. MCPScan.ai
- MCPScan.ai는 스캔 및 프록시 두 가지 모드로 작동하는 Model Context Protocol (MCP) 서버용 보안 스캐너
- 스캔 모드에서는 구성 및 도구 설명을 분석하여 프롬프트 주입, 도구 중독, toxic flows 같은 알려진 취약점 감지
- 프록시 모드에서 MCPScan.ai는 에이전트 시스템과 MCP 서버 사이의 브리지 역할을 하며 런타임 트래픽을 지속적으로 모니터링
- 이 모드는 도구 호출 검증, PII 감지, 데이터 흐름 제약을 포함한 커스텀 보안 규칙 및 가드레일도 시행
80. oRPC
- oRPC (OpenAPI Remote Procedure Call)는 TypeScript에서 엔드투엔드 타입세이프 API를 제공하면서 OpenAPI 사양을 완전히 준수
- 완전한 OpenAPI 사양을 자동으로 생성하여 통합 및 문서화 단순화 가능
- tRPC 및 ElysiaJS 같은 대안이 종종 타입 안전성을 얻기 위해 새로운 프레임워크를 채택해야 하는 반면, oRPC는 Express, Fastify, Hono, Next.js를 포함한 기존 Node.js 프레임워크와 원활하게 통합
- 이러한 유연성으로 파괴적인 리팩토링 없이 기존 API에 엔드투엔드 타입 안전성을 채택하려는 팀에게 탁월한 선택
81. Power user for dbt
- Power user for dbt는 dbt 및 dbt Cloud 환경 모두와 직접 통합되는 Visual Studio Code용 확장
- dbt가 우리가 좋아하는 도구 중 하나로 남아 있기 때문에 사용성을 개선하는 모든 것이 생태계에 환영받는 추가 사항
- 이전에는 개발자가 IDE 외부에서 SQL 코드를 검증하거나 모델 계보를 검사하기 위해 여러 도구에 의존
- 이 확장으로 해당 기능이 이제 VS Code에 내장되어 코드 자동완성, 실시간 쿼리 결과, 시각적 모델 및 컬럼 계보 제공
82. Serena
- Serena는 Claude Code 같은 코딩 에이전트에게 의미론적 코드 검색 및 편집을 위한 IDE 같은 기능을 제공하는 강력한 코딩 툴킷
- 심볼 수준에서 작동하고 코드의 관계형 구조를 이해함으로써 Serena는 토큰 효율성을 크게 개선
- 전체 파일을 읽거나 조잡한 문자열 교체에 의존하는 대신 코딩 에이전트는 find_symbol, find_referencing_symbols, insert_after_symbol 같은 정밀한 Serena 도구를 사용하여 코드를 찾고 편집 가능
- 소규모 프로젝트에서는 영향이 미미하지만 코드베이스가 커짐에 따라 이러한 효율성은 매우 가치 있음
83. SweetPad
- SweetPad 확장은 개발자가 Apple 플랫폼에서 Swift 애플리케이션 개발 전체 수명주기를 위해 VS Code 또는 Cursor를 사용할 수 있게 함
- xcodebuild, xcode-build-server, swift-format 같은 필수 도구를 통합하여 Xcode로 지속적으로 전환할 필요 제거
- 개발자는 시뮬레이터를 관리하고 장치에 배포하면서 Xcode를 열지 않고도 IDE에서 직접 iOS, macOS, watchOS용 Swift 애플리케이션을 빌드, 실행, 디버그 가능
84. Tape/Z (Tools for Assembly Program Exploration for Z/OS)
- Tape/Z (Tools for Assembly Program Exploration for Z/OS)는 메인프레임 HLASM (High-Level Assembler) 코드 분석을 위한 진화하는 툴킷
- Thoughtworker가 개발했으며 파싱, 제어 흐름 그래프 구성, 종속성 추적, 플로차트 시각화 같은 기능 제공
- 메인프레임 공간에서 오픈되고 커뮤니티 주도 도구의 희소성을 오랫동안 언급해왔으며 대부분의 옵션은 독점적이거나 벤더 생태계에 연결되어 있음
- Tape/Z는 접근 가능하고 스크립트 가능한 분석 기능을 제공하여 그 격차를 메우는 데 도움
[Languages and Frameworks]
Adopt
85. Fastify
- Fastify에 대한 긍정적인 경험을 계속하고 있음 - Node.js용 빠르고 의견이 없으며 오버헤드가 낮은 웹 프레임워크
- 파싱, 검증, 직렬화를 포함한 최소 웹 프레임워크의 모든 필수 기능과 견고한 플러그인 시스템 및 강력한 커뮤니티 지원 제공
- 팀은 Express.js 같은 대안에 비해 Fastify를 사용할 때 중요한 단점을 보지 못했으며 측정 가능한 성능 향상도 얻어 Node.js의 최소 웹 개발에 매력적인 선택
86. LangGraph
- LangGraph는 LLM을 사용하여 상태 저장 다중 에이전트 애플리케이션을 구축하기 위한 오케스트레이션 프레임워크
- 노드 및 에지 같은 저수준 프리미티브와 개발자에게 에이전트 워크플로우, 메모리 관리, 상태 지속성에 대한 세분화된 제어를 제공하는 내장 기능 제공
- 개발자가 간단한 사전 구축된 그래프로 시작하여 복잡하고 진화하는 에이전트 아키텍처로 확장할 수 있음을 의미
- 스트리밍, 고급 컨텍스트 관리, 모델 폴백 및 도구 오류 처리 같은 복원력 패턴 지원으로 LangGraph는 강력한 프로덕션급 에이전트 애플리케이션 구축 가능
87. vLLM
- vLLM은 클라우드 또는 온프레미스에서 실행할 수 있는 LLM용 고처리량, 메모리 효율적인 추론 엔진
- 여러 모델 아키텍처와 인기 있는 오픈소스 모델 지원
- 팀은 NVIDIA DGX 및 Intel HPC 같은 GPU 플랫폼에 dockerized vLLM 워커를 배포하여 Llama 3.1 (8B 및 70B), Mistral 7B, Llama-SQL을 포함한 모델을 개발자 코딩 지원, 지식 검색, 자연어 데이터베이스 상호작용을 위해 호스팅
- vLLM은 OpenAI SDK 표준과 호환되어 일관된 모델 서빙 가능
Trial
88. Crossplane
- Radar에 마지막으로 등장한 이후 Crossplane 채택이 계속 증가했으며 특히 Kubernetes 클러스터 확장에 사용
- 작업에서 Crossplane이 일반 목적 인프라 코드(IaC) 도구가 아닌 특정 사용 사례에서 뛰어남을 발견
- 이전 관찰이 여전히 유효: Crossplane은 Kubernetes 내에 배포된 워크로드의 동반자로 가장 잘 작동하며 Terraform 같은 도구의 완전한 대체물은 아님
- Crossplane을 주요 IaC 솔루션으로 "올인"한 팀은 종종 어려움을 겪었지만 실용적으로 사용한 팀 - 타깃팅된 커스텀 사용 사례를 위해 - 강력한 결과를 봄
89. DeepEval
- DeepEval은 LLM 성능 평가를 위한 오픈소스 Python 기반 평가 프레임워크
- LlamaIndex 또는 LangChain으로 구축된 retrieval-augmented generation (RAG) 및 기타 애플리케이션 평가와 모델 기준선 및 벤치마크에 사용 가능
- DeepEval은 단어 매칭 점수를 넘어 실제 시나리오에서 더 신뢰할 수 있는 평가를 제공하기 위해 정확도, 관련성, 일관성 평가
- 환각 감지, 답변 관련성, 하이퍼파라미터 최적화 같은 메트릭 포함하고 사용 사례별 커스텀 메트릭 생성을 위한 GEval 지원
90. FastMCP
- Model Context Protocol (MCP)는 LLM 애플리케이션에 컨텍스트 및 도구를 제공하는 표준으로 빠르게 자리잡고 있음
- 그러나 MCP 서버 구현은 일반적으로 설정, 프로토콜 처리, 오류 관리를 위한 상당한 보일러플레이트 포함
- FastMCP는 프로토콜 복잡성을 추상화하고 개발자가 직관적인 Python 데코레이터를 통해 MCP 리소스 및 도구를 정의할 수 있게 하여 이 프로세스를 단순화하는 Python 프레임워크
- 이 추상화를 통해 팀이 비즈니스 로직에 집중할 수 있어 더 깨끗하고 유지 관리 가능한 MCP 구현으로 이어짐
91. LiteLLM
- LiteLLM은 표준화된 OpenAI API 형식을 통해 여러 LLM 제공업체와 원활한 통합을 제공하는 SDK
- 광범위한 제공업체 및 모델을 지원하여 텍스트 완성, 임베딩, 이미지 생성을 위한 통합 인터페이스 제공
- 제공업체별 API 차이를 추상화함으로써 LiteLLM은 통합을 단순화하고 자동으로 요청을 올바른 모델 엔드포인트로 라우팅
- 프록시 프레임워크를 통해 가드레일, 캐싱, 로깅, 속도 제한, 로드 밸런싱 같은 프로덕션급 기능도 포함
92. MLForecast
- MLForecast는 기계 학습 모델을 대규모 데이터세트에 적용하는 시계열 예측을 위한 Python 프레임워크 및 라이브러리
- 래그, 롤링 통계, 날짜 기반 기능을 포함한 일반적으로 복잡한 자동화된 특징 엔지니어링 프로세스를 단순화
- Spark 및 Dask 같은 분산 컴퓨팅 프레임워크에 대한 네이티브 지원을 가진 몇 안 되는 라이브러리 중 하나로 확장성 보장
- conformal prediction 같은 방법을 사용한 확률적 예측도 지원하여 예측 불확실성의 정량적 측정 제공
93. Nuxt
- Nuxt는 풀스택 웹 애플리케이션 생성을 위해 Vue.js 위에 구축된 의견이 있는 메타 프레임워크로 종종 "Vue.js용 Next.js"로 알려짐
- React 대응물과 유사하게 Nuxt는 사전 렌더링, 서버 사이드 렌더링(SSR), 메타데이터 관리 같은 SEO 친화적 기능 제공
- Nuxt는 Next.js 뒤의 동일한 회사인 Vercel의 지원을 받으며 강력한 커뮤니티와 공식 및 타사 모듈 생태계의 지원을 받음
- 이러한 모듈은 이미지 처리, 사이트맵, Tailwind CSS 같은 기능의 통합을 단순화
94. Phoenix
- Phoenix와의 긍정적인 경험을 계속하고 있음 - Elixir로 작성된 서버 사이드 웹 MVC 프레임워크
- Phoenix는 Ruby on Rails의 신속한 애플리케이션 개발 및 개발자 경험 학습을 기반으로 하면서 함수형 프로그래밍 패러다임으로도 발전
- 이 볼륨에서는 Phoenix LiveView 1.0 릴리스를 강조
- LiveView는 HTMX 또는 Hotwire 와 유사한 HTML-over-the-wire 솔루션으로 개발자가 완전히 서버 렌더링 HTML로 풍부하고 실시간 사용자 경험 구축 가능
95. Presidio
- Presidio는 구조화 및 비구조화 텍스트에서 민감한 데이터를 identifying 하고 anonymizing 하기 위한 데이터 보호 SDK
- named entity recognition, 정규 표현식, 규칙 기반 로직을 사용하여 신용카드 번호, 이름, 위치 같은 개인 식별 정보(PII) 감지
- Presidio는 custom 엔티티 인식기 및 익명화 파이프라인을 지원하여 조직이 자체 프라이버시 및 규정 준수 요구사항에 맞게 조정 가능
- 팀은 LLM과 통합할 때 엄격한 데이터 공유 제어가 있는 엔터프라이즈 환경에서 Presidio 사용
96. Pydantic AI
- Pydantic AI는 프로덕션에서 GenAI 에이전트를 구축하기 위한 안정적이고 잘 지원되는 오픈소스 프레임워크로 계속 입증
- 신뢰할 수 있는 Pydantic 기반 위에 구축되어 강력한 타입 안전성, OpenTelemetry를 통한 일급 가시성, 내장 평가 도구 제공
- 2025년 9월 4일의 버전 1.0 릴리스는 성숙도의 중요한 이정표 표시
- 그 이후로 단순성과 유지 관리 가능성으로 신뢰할 수 있고 널리 채택되어 LangChain 및 LangGraph 같은 다른 인기 에이전트 프레임워크 대열에 합류
97. Tauri
- Tauri는 단일 웹 UI 코드베이스를 사용하여 고성능 데스크톱 애플리케이션을 구축하기 위한 프레임워크
- Electron 같은 전통적인 웹 래퍼와 달리 Tauri는 Rust를 기반으로 구축되어 운영 체제의 네이티브 webview를 활용하여 더 작은 바이너리와 더 강력한 보안 제공
- 몇 년 전 Tauri를 처음 평가했으며 그 이후 데스크톱을 넘어 iOS 및 Android 지원으로 확장
- 최신 버전은 더 유연한 권한 및 범위 모델을 도입하고 이전 권한 목록을 대체하며 원시 데이터 전송을 지원하고 성능을 개선하는 강화된 프로세스 간 통신(IPC) 레이어 특징
Assess
98. Agent Development Kit (ADK)
- Agent Development Kit (ADK)는 단순히 프롬프팅에 의존하기보다는 현대적인 소프트웨어 엔지니어링 규율을 적용하는 AI 에이전트 개발 및 배포를 위한 프레임워크
- 클래스, 메서드, 워크플로우 패턴, CLI 지원 같은 친숙한 추상화 도입
- LangGraph 또는 CrewAI 같은 프레임워크와 비교하여 ADK의 강점은 Google의 AI 인프라와의 깊은 통합으로 엔터프라이즈 준비 그라운딩, 데이터 액세스, 모니터링 제공
- 상호 운용성을 위해 설계되어 도구 래퍼 및 에이전트 간 통신을 위한 A2A protocol 지원
99. Agno
- Agno는 다중 에이전트 시스템을 구축, 실행, 관리하기 위한 프레임워크
- 완전 자율 에이전트 또는 제어된 단계 기반 워크플로우를 생성할 수 있는 유연성 제공하며 human-in-the-loop, 세션 관리, 메모리, 지식에 대한 내장 지원 포함
- 인상적인 에이전트 시작 시간과 낮은 메모리 소비로 효율성에 대한 초점 높이 평가
- Agno는 자체 런타임인 AgentOS와 함께 제공되며 이는 에이전트 시스템의 간소화된 테스트, 모니터링, 관리를 위한 통합 제어 플레인이 있는 FastAPI 애플리케이션
100. assistant-ui
- assistant-ui는 AI 채팅 인터페이스를 위한 오픈소스 TypeScript 및 React 라이브러리
- 메시지 편집 및 분기 전환을 위한 스트리밍, 상태 관리, 일반적인 UX 기능 같은 채팅 UI 구현의 복잡한 부분을 처리하면서 개발자가 Radix 프리미티브를 사용하여 자체 구성 요소 디자인 가능
- Vercel AI SDK 및 LangGraph 를 포함한 인기 런타임과의 통합을 지원하고 복잡한 사용 사례를 위한 사용자 정의 가능한 런타임 솔루션 제공
- assistant-ui로 간단한 채팅 인터페이스를 성공적으로 구축했으며 결과에 만족
101. AutoRound
- Intel의 AutoRound는 LLM 및 vision language models (VLM) 같은 대규모 AI 모델을 정확도 손실을 최소화하면서 압축하기 위한 고급 양자화 알고리듬
- sign-gradient descent 최적화를 사용하여 모델 크기를 초저비트 너비(2-4비트)로 줄이고 최적 효율성을 위해 레이어 전체에 혼합 비트 너비 적용
- 이 양자화 프로세스는 또한 매우 빠름: 단일 GPU에서 몇 분 만에 70억 파라미터 모델 양자화 가능
- AutoRound는 vLLM 및 Transformers 같은 인기 있는 추론 엔진과 통합되어 모델 양자화를 위한 매력적인 옵션
102. Browser Use
- Browser Use는 LLM 기반 에이전트가 웹 브라우저를 운영하고 웹 애플리케이션과 상호작용할 수 있게 하는 오픈소스 Python 라이브러리
- 탐색, 데이터 입력, 텍스트 추출을 할 수 있으며 애플리케이션 간 작업을 조정하기 위해 여러 탭 관리 가능
- 라이브러리는 AI 에이전트가 웹 콘텐츠에서 정보를 액세스, 조작 또는 검색해야 할 때 특히 유용
- 다양한 LLM을 지원하고 Playwright를 활용하여 더 풍부한 웹 상호작용을 위해 시각적 이해와 HTML 구조 추출을 결합
103. DeepSpeed
- DeepSpeed는 훈련 및 추론 모두를 위한 분산 딥러닝을 최적화하는 Python 라이브러리
- 훈련을 위해 Zero Redundancy Optimizer (ZeRO) 및 3D 병렬처리 같은 기술을 통합하여 수천 개의 GPU에서 모델을 효율적으로 확장
- 추론을 위해 텐서, 파이프라인, 전문가, ZeRO 병렬처리를 커스텀 커널 및 통신 최적화와 결합하여 지연시간 최소화
- DeepSpeed는 Megatron-Turing NLG (530B) 및 BLOOM (176B)를 포함하여 세계에서 가장 큰 언어 모델 중 일부를 구동
104. Drizzle
- Drizzle은 경량 TypeScript ORM
- Prisma ORM과 달리 개발자에게 간단한 SQL 같은 API와 더 전통적인 ORM 스타일 쿼리 인터페이스 모두 제공
- 기존 데이터베이스에서 스키마 추출도 지원하여 데이터베이스 우선 및 코드 우선 접근법 모두 가능
- Drizzle은 서버리스 환경을 염두에 두고 설계되었으며 작은 번들 크기를 가지고 prepared statements 지원
105. Java post-quantum cryptography
- 양자 컴퓨터는 계속 빠르게 발전하고 있으며 AWS Braket 같은 SaaS 제공이 이제 여러 아키텍처에서 양자 알고리듬에 대한 액세스 제공
- 3월 이후 Java 24는 Java post-quantum cryptography를 도입하여 ML-KEM 및 ML-DSA 같은 포스트 양자 암호화 알고리듬에 대한 지원 추가
- .Net 10도 지원 확대
- 조언은 간단: 이러한 언어로 소프트웨어를 구축하는 경우 시스템을 미래 보장하기 위해 지금 양자 안전 알고리듬 채택 시작
106. kagent
- Kagent은 Kubernetes 클러스터 내에서 에이전트 AI를 실행하기 위한 오픈소스 프레임워크
- LLM 기반 에이전트가 Kubernetes 네이티브 API 및 Model Context Protocol (MCP) 통합을 통해 문제 진단, 구성 수정, 가시성 도구와 상호작용 같은 운영 작업을 계획하고 실행할 수 있게 함
- 목표는 선언적 관리와 자율적 추론을 결합하여 "AgentOps"를 클라우드 네이티브 인프라에 가져오는 것
- CNCF Sandbox 프로젝트로서 Kagent는 특히 LLM에 운영 관리 기능을 부여하는 위험을 고려할 때 주의해서 도입해야 하며 toxic flow analysis 같은 기술이 이러한 위험을 평가하고 완화할 때 특히 가치 있을 수 있음
107. LangExtract
- LangExtract는 LLM을 사용하여 사용자 정의 지침에 따라 비구조화 텍스트에서 구조화된 정보를 추출하는 Python 라이브러리
- 임상 노트 및 보고서 같은 도메인별 자료를 처리하여 각 추출된 데이터 포인트를 소스로 추적 가능하게 유지하면서 핵심 세부 정보를 식별하고 구성
- 추출된 엔티티는
.jsonl파일(언어 모델 데이터를 위한 표준 형식)로 내보낼 수 있으며 맥락 검토를 위한 대화형 HTML 인터페이스를 통해 시각화 가능 - 팀은 도메인 지식 그래프를 채우기 위해 엔티티를 추출하는 LangExtract를 평가했으며 복잡한 문서를 구조화되고 기계 판독 가능한 표현으로 변환하는 데 효과적임을 발견
108. Langflow
- Langflow는 LLM 워크플로우를 구축하고 시각화하기 위한 오픈소스 로우코드 플랫폼
- LangChain 위에 구축되어 개발자가 드래그 앤 드롭 인터페이스를 통해 프롬프트, 도구, 벡터 데이터베이스, 메모리 구성 요소를 체인으로 연결할 수 있으면서도 고급 로직을 위한 커스텀 Python 코드 지원
- 완전한 백엔드 코드를 작성하지 않고 에이전트 애플리케이션 프로토타이핑에 특히 유용
- 그러나 Langflow는 여전히 상대적으로 새롭고 프로덕션 사용을 위한 몇 가지 거친 부분이 있으며 로우코드 플랫폼에 대한 일반적인 주의가 여기에도 적용
109. LMCache
- LMCache는 LLM 서빙 인프라를 가속화하는 키-값(KV) 캐시 솔루션
- LLM 추론 엔진 풀 전체에 걸친 특수 캐싱 레이어 역할을 하며 채팅 기록이나 문서 컬렉션 같이 여러 번 처리될 가능성이 있는 텍스트에 대한 사전 계산된 KV 캐시 항목 저장
- 이러한 값을 디스크에 유지함으로써 prefill 계산을 GPU에서 오프로드하여 time-to-first-token (TTFT) 줄이고 RAG 파이프라인, 다중 턴 채팅 애플리케이션, 에이전트 시스템 같은 까다로운 워크로드 전체에서 추론 비용 절감
- vLLM 또는 NVIDIA Dynamo 같은 주요 추론 서버와 LMCache를 통합할 수 있으며 설정에 미치는 영향 평가 가치 있음
110. Mem0
- Mem0는 AI 에이전트를 위해 설계된 메모리 레이어
- 순진한 접근법은 종종 전체 채팅 기록을 데이터베이스에 저장하고 향후 대화에서 재사용하여 과도한 토큰 사용으로 이어짐
- Mem0는 이를 단기 회상과 현저한 사실 및 관계만 추출하고 저장하는 지능형 장기 레이어로 메모리를 분리하는 더 정교한 아키텍처로 대체
- 아키텍처는 의미론적 유사성을 위한 벡터 저장소와 시간적 및 관계형 데이터를 이해하기 위한 지식 그래프를 결합
111. Open Security Control Assessment Language (OSCAL)
- Open Security Controls Assessment Language (OSCAL)는 규정 준수 및 위험 관리에서 자동화를 증가시키고 팀이 텍스트 기반 수동 접근법에서 벗어나도록 돕기 위해 설계된 오픈되고 기계 판독 가능한 정보 교환 형식
- 미국 국립 표준 기술 연구소(NIST)가 주도하며 OSCAL은 SOC 2 및 PCI 같은 산업 프레임워크와 미국의 FedRAMP, 싱가포르의 Cybersecurity Control Catalogue, 호주의 Information Security Manual 같은 정부 프레임워크와 관련된 보안 제어를 표현하기 위한 standard representations in XML, JSON and YAML 제공
- OSCAL이 아직 공공 부문 외부에서 널리 채택되지 않았고 생태계가 여전히 성숙 중이지만 보안 평가를 간소화하고 스프레드시트 및 체크박스 연습에 대한 의존을 줄이며 compliance-as-code 및 continuous compliance 플랫폼에 통합될 때 자동화된 규정 준수를 가능하게 하는 잠재력에 흥분
112. OpenInference
- OpenInference는 AI 애플리케이션을 관찰하기 위해 설계된 규약 및 플러그인 세트로 OpenTelemetry를 보완
- 기계 학습 프레임워크 및 라이브러리에 대한 표준화된 계측을 제공하여 개발자가 벡터 저장소 검색이나 API 및 검색 엔진에 대한 외부 도구 호출 같은 주변 컨텍스트와 함께 LLM 호출을 추적하는 데 도움
- 스팬은 모든 OTEL 호환 수집기로 내보낼 수 있어 기존 원격 측정 파이프라인과의 정렬 보장
- 이전에 일반적으로 사용되는 LLM 가시성 플랫폼인 Langfuse를 블립했으며 OpenInference SDK는 Langfuse 및 기타 OpenTelemetry 호환 가시성 플랫폼에 트레이스를 기록 가능
113. Valibot
- Valibot은 TypeScript의 스키마 검증 라이브러리
- Zod 및 Ajv 같은 다른 인기 있는 TypeScript 검증 라이브러리처럼 타입 추론을 제공하지만 모듈식 디자인이 차별화
- 이 아키텍처는 번들러가 효과적인 트리 쉐이킹 및 코드 분할을 수행하여 실제로 사용되는 검증 함수만 포함할 수 있게 함
- Valibot은 최적 시나리오에서 Zod에 비해 번들 크기를 최대 95%까지 줄일 수 있어 클라이언트 사이드 검증이나 서버리스 함수 같이 번들 크기가 중요한 환경에서 스키마 검증을 위한 매력적인 선택
114. Vercel AI SDK
- Vercel AI SDK는 TypeScript 생태계에서 AI 기반 애플리케이션 및 에이전트를 구축하기 위한 오픈소스 풀스택 툴킷
- 두 가지 주요 구성 요소로 구성: AI SDK Core는 텍스트 생성, 구조화된 객체 생성, 도구 호출을 지원하는 모델 독립적 LLM 호출 표준화
- AI SDK UI는 assistant-ui 와 유사하게 React, Vue, Next.js, Svelte에서 스트리밍, 상태 관리, 실시간 UI 업데이트로 프론트엔드 개발 단순화
- 이미 TypeScript 및 Next.js 생태계 내에서 작업하는 팀의 경우 Vercel AI SDK는 풍부한 클라이언트 사이드 경험으로 AI 애플리케이션을 구축하는 빠르고 원활한 방법 제공