8P by neo 2일전 | ★ favorite | 댓글과 토론
  • 테크닉/도구/플랫폼/개발언어 및 프레임워크 분야의 최신 트렌드들을 Adopt(도입 권장), Trial(시험 사용), Assess(평가), Hold(주의) 4단계로 시각화 및 설명
  • 주요 테마 4개: AI 인프라 오케스트레이션, MCP 기반 에이전트 부상, AI 코딩 워크플로우, AI 안티패턴 출현

AI에 인프라 오케스트레이션 도입

  • AI 워크로드가 조직들로 하여금 훈련과 추론을 위한 대규모 GPU 플릿 오케스트레이션을 요구
    • 단일 GPU의 HBM 용량(80GB) 한계를 넘는 대형 모델이 증가하면서 분산 훈련과 멀티 GPU 추론이 필수화됨
    • 플랫폼 팀은 복잡한 다단계 파이프라인을 구축하고 처리량과 지연시간을 지속적으로 조정
    • Nvidia DCGM Exporter로 플릿 원격측정 수행, 토폴로지 인식 스케줄링으로 인터커넥트 대역폭이 가장 높은 위치에 작업 배치
  • Kubernetes는 AI 워크로드를 대규모로 관리하는 핵심 기반이지만, microVM(Firecracker), Uncloud 같은 대안 플랫폼도 주목받고 있음
    • Kueue를 통한 대기열 및 할당량 관리, 토폴로지 인식 스케줄링(topology-aware scheduling), gang scheduling 등 GPU 링크 간 빠른 통신을 고려한 배치 전략이 발전 중
    • NVLink/NVSwitch 같은 고속 GPU 간 링크와 RDMA를 갖춘 연속적 데이터센터 "아일랜드"(랙 또는 파드) 내 멀티-GPU 작업 배치
  • Kubernetes의 최근 멀티-GPU 및 NUMA 인식 API 개선이 이러한 역량을 강화하며, 장치 간 대역폭 향상, 테일 레이턴시 감소, 효과적 활용률 증가
    • AI 코딩 워크플로우 수요 증가와 MCP로 향상된 에이전트가 부상하며 AI 인프라에서 빠른 혁신이 예상됨
    • GPU 인식 오케스트레이션이 기본 요건이 되고 있으며, 토폴로지가 이제 일급 스케줄링 고려사항으로 부상

MCP 기반 에이전트 부상

  • MCP와 에이전트의 동시 부상, 그리고 이를 중심으로 구축된 프로토콜 및 도구 생태계 확장이 이번 Radar의 주요 주제
    • MCP가 에이전트 구동 및 효율적·반자율적 작동을 위한 궁극의 통합 프로토콜로 자리매김하고 있음
  • 거의 모든 주요 벤더가 MCP 지원을 추가하며, 에이전트 중심 워크플로우가 빠르게 성장
  • 에이전트 워크플로우의 지속적 혁신이 관찰되며, 컨텍스트 엔지니어링이 모델의 동작과 자원 효율 최적화의 핵심으로 부상함
    • A2A(Agent-to-Agent), AG-UI 같은 신규 프로토콜이 멀티 에이전트 협업 앱 구축의 복잡도를 낮춤
    • AGENTS.md, Anchoring coding agents, Context7 MCP 서버 등의 기술이 실제 개발 워크플로우에 채택됨
  • AI 생태계의 특성상 각 Radar마다 새로운 혁신이 폭발적으로 발생
    — 지난번은 RAG이었고 이번은 에이전트 워크플로우와 이를 지원하는 도구, 기법, 플랫폼의 성장하는 집합체(constellation)
    • 그리고 주목할 만한 AI 안티패턴도 일부 등장

AI 코딩 워크플로우

  • AI가 소프트웨어 구축 및 유지보수 방식을 변화시키고 있으며, 최근 논의에서 지배적인 주제
    • 레거시 코드베이스 이해를 위한 AI 활용부터 포워드 엔지니어링을 위한 GenAI까지 소프트웨어 가치 사슬 전반에 전략적으로 내재화됨
    • 코딩 에이전트에 지식을 더 효과적으로 공급하는 방법 학습
  • 팀들은 AGENTS.md 파일을 통한 맞춤형 지침 정의, Context7 같은 MCP 서버와 통합하여 최신 종속성 문서 가져오기 등 새로운 실천법 실험중
    • AI가 개별 기여자뿐 아니라 팀 전체를 증폭해야 한다는 인식 증가
    • 큐레이션된 공유 지침커스텀 명령어가 공평한 지식 확산 보장을 위해 등장함
  • 도구 환경은 활기차게 진화중:
    • 디자이너는 UX PilotAI Design Reviewer 를 활용, 개발자는 v0와 Bolt로 셀프서비스 UI 프로토타이핑 통한 신속한 프로토타입 제작
    • 스펙 기반 개발의 범위, 세분화 수준, 점진적 전달의 단일 진실 공급원 역할 가능성 관련 논쟁 지속
    • 흥분 속에서도 AI 생성 코드에 대한 안일함이 여전히 공통 우려사항으로 남아, AI가 엔지니어링을 가속화할 수 있지만 인간의 판단은 여전히 필수불가결함을 상기

새로운 AI 안티패턴 출현

  • 산업 전반의 AI 채택 가속화가 효과적 실천법과 함께 신흥 안티패턴도 표면화
    • GenAI를 활용한 셀프서비스 일회용 UI 프로토타이핑 같은 개념의 명확한 유용성 인정하면서도, 조직을 AI 가속 Shadow IT 안티패턴으로 이끌 잠재성을 인식
    • MCP(Model Context Protocol) 가 주목받으면서 많은 팀이 순진한 API-to-MCP 변환 안티패턴에 빠짐
  • Text-to-SQL 솔루션의 효능이 초기 기대에 미치지 못함, AI 생성 코드에 대한 안일함이 여전히 관련 우려사항으로 지속
    • 스펙 기반 개발 같은 신흥 실천법 내에서도 전통적 소프트웨어 엔지니어링 안티패턴으로 회귀할 위험 존재
      — 특히 과도한 사전 명세와 빅뱅 릴리스에 대한 편향
  • GenAI가 전례 없는 속도와 규모로 발전하고 있어 새로운 안티패턴이 빠르게 등장할 것으로 예상
    • 팀은 처음에는 효과적으로 보이지만 시간이 지나면서 성능이 저하되고 피드백을 늦추거나, 적응성을 훼손하거나, 책임성을 모호하게 만드는 패턴에 대해 경계 유지 필요

ThoughtWorks Technology Radar Volume 33

[Techniques]

Adopt

1. Continuous compliance

  • 소프트웨어 개발 프로세스와 기술이 규제 및 보안 표준을 자동화를 통해 지속적으로 충족하도록 보장하는 실천법
  • Open Policy Agent 같은 policy-as-code 도구 통합, CD 파이프라인 내 SBOM 생성으로 SLSA 지침에 맞춰 초기 단계에서 규정 준수 문제 감지 및 해결
  • 규칙과 모범 사례를 코드화하면 병목 현상 없이 팀 전체에 일관되게 표준 강제 가능
  • AI 생성 코드에 대한 안일함 위험 증가로 개발 프로세스에 규정 준수 내재화가 그 어느 때보다 중요

2. Curated shared instructions for software teams

  • AI를 소프트웨어 전달에 적극적으로 사용하는 팀을 위해 개인 프롬프팅을 넘어 큐레이션된 지침으로 이동
  • AGENTS.md 같은 지침 파일을 프로젝트 리포지토리에 직접 커밋하는 것이 가장 직관적인 구현 방법
  • Cursor, Windsurf, Claude Code 등 대부분의 AI 코딩 도구가 커스텀 슬래시 명령이나 워크플로우를 통한 지침 공유 지원
  • 프롬프트가 개선되는 즉시 전체 팀이 혜택을 받아 최고의 AI 지침에 일관된 접근 보장

3. Pre-commit hooks

  • Git hooks는 오랫동안 존재했지만 여전히 충분히 활용되지 않음
  • AI 지원 및 에이전트 코딩의 부상으로 실수로 비밀이나 문제가 있는 코드를 커밋할 위험 증가
  • continuous integration 같은 코드 검증 메커니즘이 많지만, pre-commit 훅은 더 많은 팀이 채택해야 할 간단하고 효과적인 안전장치
  • 비밀 스캐닝 같이 이 워크플로우 단계에서 가장 효과적으로 포착되는 위험에 집중하여 최소화하고 초점을 맞추는 것이 최선

4. Using GenAI to understand legacy codebases

  • GenAI를 사용한 레거시 코드베이스 이해가 대규모 복잡 시스템 이해를 크게 가속화
  • Cursor, Claude Code, Copilot, Windsurf, Aider, Cody, Swimm, Unblocked, PocketFlow-Tutorial-Codebase-Knowledge 같은 도구가 비즈니스 규칙 표면화, 로직 요약, 종속성 식별 지원
  • 오픈 프레임워크 및 직접 LLM 프롬프팅과 함께 사용 시 레거시 코드베이스 이해 시간 극적으로 단축
  • GraphRAG 같은 고급 접근법의 설정 노력은 특히 분석되는 코드베이스의 크기와 복잡성에 따라 달라지지만, 생산성에 미치는 영향은 일관되고 상당함

Trial

5. AGENTS.md

  • 프로젝트에서 작업하는 AI 코딩 에이전트에 지침을 제공하는 공통 형식
  • 본질적으로 에이전트를 위한 README 파일이며, Markdown 이외의 필수 필드나 포맷 없음
  • LLM 기반 코딩 에이전트가 인간이 작성하고 읽을 수 있는 지침을 해석하는 능력에 의존
  • 코딩 환경의 도구 사용 팁, 테스트 지침, 커밋 관리를 위한 선호 관행 포함이 일반적 사용

6. AI for code migrations

  • 코드 마이그레이션은 언어 재작성부터 종속성이나 프레임워크 업그레이드까지 다양한 형태이며 몇 달의 수동 작업이 필요한 경우가 많음
  • .NET framework version 업그레이드 팀이 프로세스 단축을 위해 AI 사용 실험
  • 과거 OpenRewrite 같은 결정론적 규칙 기반 리팩토링 도구 사용, AI만으로는 비용이 많이 들고 대화가 방황하기 쉬움
  • 전체 업그레이드를 위임하는 대신 컴파일 오류 분석, 마이그레이션 diff 생성, 테스트 반복 검증 같은 더 작고 검증 가능한 단계로 프로세스 분해
  • Google의 대규모 int32-to-int64 migration 같은 업계 사례도 유사한 추세 반영

7. Delta Lake liquid clustering

  • Delta Lake 테이블을 위한 기술로 파티셔닝 및 Z-ordering의 대안 역할
  • 역사적으로 Delta 테이블의 읽기 성능 최적화는 예상된 쿼리 패턴 기반으로 테이블 생성 시 파티션 및 Z-order 키 정의 필요
  • liquid clustering은 지정된 키를 기반으로 데이터를 클러스터링하는 트리 기반 알고리듬 사용
  • 모든 데이터를 다시 쓰지 않고도 점진적으로 변경 가능하여 다양한 쿼리 패턴 지원에 더 큰 유연성 제공
  • Databricks Runtime for Delta Lake는 과거 쿼리 워크로드 분석, 최적 컬럼 식별, 그에 따른 데이터 클러스터링으로 자동 liquid clustering 지원

8. Self-serve UI prototyping with GenAI

  • Claude Code, Figma Make, Miro AI, v0 같은 도구가 제품 관리자가 텍스트 프롬프트에서 직접 대화형, 사용자 테스트 가능 프로토타입 생성 가능
  • 수동으로 와이어프레임 제작 대신 팀이 몇 분 만에 기능적 HTML, CSS, JS 아티팩트 생성 가능
  • 이러한 "일회용" 프로토타입은 세련됨을 빠른 학습과 맞바꾸어 디자인 스프린트 중 초기 검증에 이상적
  • 더 높은 충실도는 세부 사항에 대한 잘못된 초점이나 프로덕션 노력에 대한 비현실적 기대로 이어질 수 있어 명확한 프레이밍과 기대 관리 필수

9. Structured output from LLMs

  • LLM이 JSON이나 특정 프로그래밍 클래스 같은 사전 정의된 형식으로 응답을 생성하도록 제약하는 실천법
  • LLM의 일반적으로 예측 불가능한 텍스트를 기계 판독 가능하고 결정론적인 데이터 계약으로 변환하여 신뢰할 수 있는 프로덕션급 애플리케이션 구축에 필수적
  • 단순 프롬프트 기반 포맷팅과 model-native structured outputs부터 OutlinesInstructor 같은 도구를 사용한 더 강력한 제약된 디코딩 방법까지 접근법 다양
  • 다양한 문서 유형에서 복잡하고 구조화되지 않은 데이터를 추출하여 다운스트림 비즈니스 로직을 위한 구조화된 JSON으로 변환하는 데 성공적으로 사용

10. TCR (Test && Commit || Revert)

  • 테스트 주도 개발에서 파생된 프로그래밍 워크플로우로 간단한 규칙을 통해 매우 작고 지속적인 단계 촉진
  • 각 변경 후 테스트가 통과하면 변경 사항이 커밋되고, 실패하면 변경 사항이 되돌려짐
  • 코드베이스 내에서 이 주기를 자동화하는 스크립트만 정의하면 되어 구현이 간단
  • Kent Beck의 정식 article에서 처음 소개된 TCR은 YAGNIKISS 같은 긍정적 코딩 실천법 강화

Assess

11. AI-powered UI testing

  • 이전 Radar에서 AI 기반 UI 테스트는 주로 탐색적 테스트에 초점을 맞췄으며, LLM의 비결정론이 불안정성을 야기할 수 있다고 언급
  • MCP의 부상으로 PlaywrightSelenium 같은 주요 UI 테스트 프레임워크가 자체 MCP 서버(playwright-mcp, mcp-selenium) 도입
  • 네이티브 기술을 통한 신뢰할 수 있는 브라우저 자동화 제공으로 코딩 어시스턴트가 Playwright 또는 Selenium에서 신뢰할 수 있는 UI 테스트 생성 가능
  • 최신 Playwright 릴리스의 Playwright Agents 같은 개발에 흥분하며 더 실용적인 지침과 현장 경험 출현 기대

12. Anchoring coding agents to a reference application

  • 과거 tailored service templates 패턴을 블립했으며, 이는 마이크로서비스를 채택하는 조직이 새 서비스를 부트스트랩하고 기존 인프라와 원활하게 통합하는 데 도움
  • 시간이 지남에 따라 새로운 종속성, 프레임워크, 아키텍처 패턴이 등장하면서 이러한 템플릿과 기존 서비스 간의 코드 드리프트가 증가하는 경향
  • 코딩 에이전트 시대에 우수한 실천법과 아키텍처 일관성 유지를 위해 anchoring coding agents to a reference application 실험
  • Model Context Protocol (MCP) 서버가 참조 템플릿 코드와 커밋 diff를 모두 노출하여 에이전트가 드리프트를 감지하고 수리 제안 가능

13. Context engineering

  • 추론 중 LLM에 제공되는 정보의 체계적인 설계 및 최적화로 원하는 출력을 안정적으로 생성
  • 프롬프트, 검색된 데이터, 메모리, 지침, 환경 신호 같은 맥락 요소의 구조화, 선택, 순서 지정 포함
  • 프롬프트 문구에만 초점을 맞추는 prompt engineering과 달리 context engineering은 전체 맥락 구성 고려
  • 오늘날 엔지니어는 세 영역으로 그룹화할 수 있는 다양한 개별 기술 사용: Context setup, Context management for long-horizon tasks, Dynamic information retrieval

14. GenAI for forward engineering

  • AI 생성된 레거시 코드베이스 설명을 통해 레거시 시스템을 현대화하는 신흥 기술
  • 레거시 코드가 무엇을 하는지(사양)에 초점을 맞춘 명시적 단계 도입하면서 현재 구현 방법을 의도적으로 숨김
  • spec-driven development와 관련되지만 레거시 현대화에 특별히 적용
  • reverse-engineering → design/solutioning → forward-engineering 루프를 따라 인간과 AI 에이전트 모두 구현에 커밋하기 전에 더 높은 수준에서 추론 가능

15. GraphQL as data access pattern for LLMs

  • context engineering을 향상시키는 균일하고 모델 친화적인 데이터 액세스 레이어 생성을 위한 신흥 접근법
  • 모델에 직접 데이터베이스 액세스 권한을 부여하지 않고 구조화되고 쿼리 가능한 데이터 노출 가능
  • 각 사용 사례에 대해 새 엔드포인트나 필터가 필요한 REST API와 달리 GraphQL은 모델이 필요한 데이터만 검색 가능
  • 잘 정의된 GraphQL 스키마는 LLM이 사용 가능한 엔티티와 관계에 대해 추론하는 데 사용할 수 있는 메타데이터 제공

16. Knowledge flows over knowledge stocks

  • "팀 간 정보 공유 방식을 개선하는 방법"에 대한 질문을 자주 받음
  • 시스템 사고에서 차용한 관점인 knowledge flows and knowledge stocks 개념이 가치 있음
  • 조직의 지식을 시스템으로 보도록 장려 - 스톡은 축적된 지식을 나타내고 플로우는 지식이 조직을 통해 이동하고 진화하는 방식
  • 외부 지식의 플로우를 조직으로 증가시키면 혁신 촉진 경향, communities of practice를 설립하는 것이 플로우를 개선하는 검증된 방법

17. LLM as a judge

  • LLM을 판사로 사용하여 다른 시스템(일반적으로 LLM 기반 생성기)의 출력 평가는 생성 AI에서 확장 가능하고 자동화된 평가를 제공할 잠재력으로 주목
  • 새롭게 인식된 복잡성과 위험을 반영하여 이 블립을 Trial에서 Assess로 이동
  • 평가는 position bias, verbosity bias, 낮은 견고성에 취약하며, 더 심각한 문제는 scaling contamination
  • 이러한 결함에 대응하기 위해 LLMs as a jury(합의를 위해 여러 모델 사용) 또는 평가 중 chain-of-thought 추론 같은 개선된 기술 탐색

18. On-device information retrieval

  • 검색, 컨텍스트 인식, retrieval-augmented generation (RAG)이 완전히 사용자 장치(모바일, 데스크톱 또는 에지 장치)에서 실행되도록 하는 기술
  • 프라이버시와 계산 효율성 우선시하며 경량 로컬 데이터베이스와 온디바이스 추론에 최적화된 모델 결합
  • 유망한 구현은 sqlite-vec(임베디드 데이터베이스 내 벡터 검색 지원하는 SQLite 확장)과 EmbeddingGemma(Gemma 3 아키텍처 기반 3억 파라미터 임베딩 모델) 결합
  • 로컬 우선 애플리케이션 및 데이터 주권, 낮은 지연시간, 프라이버시가 중요한 기타 사용 사례에 평가 권장

19. SAIF

  • SAIF (Secure AI Framework)는 Google이 AI 보안 위험 관리를 위한 실용적 가이드를 제공하기 위해 개발한 프레임워크
  • 데이터 중독 및 프롬프트 주입 같은 일반적 위협을 명확한 위험 맵, 구성 요소 분석, 실용적 완화 전략을 통해 체계적으로 다룸
  • 에이전트 시스템 구축의 진화하는 위험에 대한 초점이 특히 시의적절하고 가치 있음
  • LLM 사용 및 AI 기반 애플리케이션의 보안 실천법을 강화하는 데 사용할 수 있는 간결하고 실행 가능한 플레이북 제공

20. Service mesh without sidecar

  • 사이드카 기반 서비스 메시의 비용과 운영 복잡성이 지속됨에 따라 Istio ambient mode 같은 사이드카 없는 서비스 메시 옵션 출현에 흥분
  • Ambient mode는 두 가지 주요 구성 요소 간 관심사 분리하는 계층화된 아키텍처 도입: 노드당 L4 프록시(ztunnel)와 네임스페이스당 L7 프록시(Waypoint proxy)
  • ztunnel은 L3 및 L4 트래픽이 효율적이고 안전하게 전송되도록 보장, 노드의 모든 ID에 대한 인증서 가져오기 및 ambient 지원 워크로드와의 트래픽 리디렉션 처리
  • Waypoints proxy는 선택적 ambient mode 구성 요소로 트래픽 관리, 보안, 가시성 같은 더 풍부한 Istio 기능 활성화

21. Small language models

  • 여러 Technology Radar 볼륨에 걸쳐 small language models (SLMs)의 꾸준한 발전 관찰
  • 에이전트 솔루션 구축에 대한 관심 증가로 SLM이 에이전트 AI를 효율적으로 구동할 수 있다는 증거 증가
  • 대부분의 현재 에이전트 워크플로우는 고급 추론이 필요하지 않은 좁고 반복적인 작업에 초점을 맞춰 SLM에 적합
  • Phi-3, SmolLM2, DeepSeek 같은 SLM의 지속적 발전으로 이러한 작업에 충분한 기능 제공

22. Spec-driven development

  • AI 지원 코딩 워크플로우에 대한 신흥 접근법으로 용어의 정의는 여전히 진화 중
  • 일반적으로 구조화된 기능 사양으로 시작한 다음 여러 단계를 거쳐 더 작은 조각, 솔루션, 작업으로 분해하는 워크플로우 지칭
  • Amazon의 Kiro는 사용자를 요구사항, 디자인, 작업 생성의 세 워크플로우 단계로 안내
  • GitHub의 spec-kit은 유사한 3단계 프로세스를 따르지만 더 풍부한 오케스트레이션, 구성 가능한 프롬프트, 항상 따라야 하는 불변 원칙을 정의하는 "constitution" 추가

23. Team of coding agents

  • 개발자가 여러 AI 코딩 에이전트를 조율하는 기술로 각각 architect, back-end specialist, tester 같은 고유한 역할 보유
  • Claude Code, Roo Code, Kilo Code 같은 도구가 서브에이전트 및 여러 운영 모드 지원
  • LLM에 특정 역할과 페르소나 할당이 출력 품질을 개선한다는 입증된 원칙을 기반으로 단일 범용 에이전트에 의존하는 대신 여러 역할별 에이전트 조정으로 더 나은 결과 달성
  • 오케스트레이션된 다단계 AI 지원 개발 파이프라인으로의 전환 표시

24. Topology-aware scheduling

  • GPU 및 LPU는 더 이상 독립 장치가 아니라 성능이 배치 및 토폴로지에 따라 달라지는 긴밀하게 결합된 가속기 네트워크
  • NVIDIA의 NVL72 같은 랙 규모 시스템에서 72개의 GPU가 13TB 이상의 VRAM 공유하며 단일 가속기로 작동하지만 워크로드가 스위치 아일랜드를 교차하면 집합 작업이 병목 현상으로 전환
  • Groq의 컴파일 타임, 소프트웨어 스케줄링된 아키텍처는 결정론적 데이터 이동을 가정하며 무작위 스케줄링은 이러한 가정과 예측 가능성 파괴
  • 토폴로지를 무시하는 순진한 스케줄러는 종종 멀티-GPU 워크로드를 임의로 분산시켜 단계 시간과 효율성 저하 초래

25. Toxic flow analysis for AI

  • MCP의 S가 "security"를 의미한다는 익숙한 농담이 매우 실제적인 문제 숨김
  • 에이전트가 도구 호출이나 API 호출을 통해 서로 통신할 때 lethal trifecta로 알려진 것을 빠르게 만날 수 있음: 개인 데이터 액세스, 신뢰할 수 없는 콘텐츠 노출, 외부 통신 능력
  • 세 가지를 모두 가진 에이전트는 매우 취약하며, LLM은 입력의 지침을 따르는 경향이 있어 신뢰할 수 없는 소스로 데이터 유출 지시를 포함하는 콘텐츠가 쉽게 데이터 누출로 이어질 수 있음
  • toxic flow analysis는 에이전트 시스템의 흐름 그래프를 검사하여 추가 조사를 위한 잠재적으로 안전하지 않은 데이터 경로 식별

Hold

26. AI-accelerated shadow IT

  • AI가 비코더가 IT 부서를 기다리는 대신 소프트웨어를 직접 구축하고 통합하는 장벽 낮춤
  • 이것이 잠금 해제하는 잠재력에 흥분하지만 AI-accelerated shadow IT의 첫 징후에 경계
  • 노코드 워크플로우 자동화 플랫폼이 이제 AI API 통합(예: OpenAI 또는 Anthropic) 지원하여 AI를 덕트 테이프로 사용 유혹 - 이전에는 불가능했던 통합 연결
  • 동시에 AI 코딩 어시스턴트가 더 에이전트화되어 기본 교육을 받은 비코더가 내부 유틸리티 애플리케이션 구축 가능

27. Capacity-driven development

  • 현대 소프트웨어 개발 실천법 성공의 핵심은 작업 흐름에 대한 초점 유지
  • Stream-aligned 팀은 사용자 여정이나 제품 같은 단일 가치 있는 흐름에 집중하여 엔드투엔드 가치를 효율적으로 제공
  • 그러나 이러한 방식으로 정렬된 팀이 여유 용량이 있을 때 다른 제품이나 스트림의 기능을 맡는 capacity-driven development를 향한 우려스러운 추세 관찰
  • 단기적으로는 효율적으로 보일 수 있지만 수요 급증 처리에 가장 적합한 로컬 최적화이며 정규화되면 인지 부하와 기술 부채 증가

28. Complacency with AI-generated code

  • AI 코딩 어시스턴트와 에이전트가 주목을 받으면서 complacency with AI-generated code에 대한 우려를 강조하는 데이터와 연구 증가
  • 이러한 도구가 개발 가속화할 수 있다는 충분한 증거가 있지만, 연구는 시간이 지남에 따라 코드 품질이 저하될 수 있음을 보여줌
  • GitClear의 2024 research에서 중복 코드와 코드 churn이 예상보다 많이 증가한 반면 커밋 이력의 리팩토링 활동은 감소
  • Microsoft의 지식 근로자에 대한 research는 AI 기반 자신감이 종종 비판적 사고를 희생하여 나타난다는 것을 보여줌

29. Naive API-to-MCP conversion

  • 조직은 내부 API를 Model Context Protocol (MCP)로 원활하고 직접적으로 변환하여 AI 에이전트가 기존 시스템과 상호 작용하도록 하려는 열망
  • MCP linkFastAPI-MCP 같은 도구가 이러한 변환을 지원하려는 증가하는 수
  • 이러한 naive API-to-MCP conversion에 반대하며, API는 일반적으로 인간 개발자를 위해 설계되어 AI가 함께 연결할 때 과도한 토큰 사용, 맥락 오염, 에이전트 성능 저하로 이어질 수 있는 세분화된 원자적 작업으로 구성
  • 이러한 API는 특히 내부 API의 경우 민감한 데이터를 노출하거나 파괴적 작업을 허용하는 경우가 많음

30. Standalone data engineering teams

  • 제공하는 스트림 정렬 비즈니스 도메인과 별도로 데이터 파이프라인과 제품을 개발하고 소유하는 별도의 데이터 엔지니어링 팀 조직은 비효율성과 약한 비즈니스 결과로 이어지는 안티패턴
  • 이 구조는 DevOps, 테스트 또는 배포 기능을 분리하는 과거 실수를 반복하여 지식 사일로, 병목 현상, 노력 낭비 생성
  • 긴밀한 협업 없이 데이터 엔지니어는 종종 의미 있는 데이터 제품 설계에 필요한 비즈니스 및 도메인 컨텍스트 부족하여 채택과 가치 모두 제한
  • 대신 데이터 플랫폼 팀은 공유 인프라 유지에 초점을 맞추고 교차 기능 비즈니스 팀이 data mesh 원칙에 따라 자체 data products를 구축하고 소유해야 함

31. Text to SQL

  • Text to SQL은 LLM을 사용하여 자연어를 실행 가능한 SQL로 번역하지만 신뢰성이 기대에 미치지 못하는 경우가 많음
  • 감독되지 않은 워크플로우에서의 사용을 권장하지 않도록 이 블립을 Hold로 이동 - 예를 들어 출력이 숨겨지거나 자동화된 사용자 생성 쿼리를 동적으로 변환
  • 이러한 경우 LLM은 제한된 스키마 또는 도메인 이해로 인해 종종 환각을 일으켜 잘못된 데이터 검색 또는 의도하지 않은 데이터 수정 위험
  • 에이전트 비즈니스 인텔리전스의 경우 직접 데이터베이스 액세스를 피하고 대신 Cube 또는 dbt's semantic layer 같은 관리되는 데이터 추상화 시맨틱 레이어 사용

[Platforms]

Adopt

32. Arm in the cloud

  • 클라우드의 Arm compute instances는 전통적인 x86 기반 인스턴스에 비해 비용 및 에너지 효율성으로 최근 몇 년 동안 점점 인기
  • AWS, Azure, GCP를 포함한 주요 클라우드 제공업체가 이제 강력한 Arm 옵션 제공
  • 많은 팀이 마이크로서비스, 오픈소스 데이터베이스, 심지어 고성능 컴퓨팅 같은 워크로드를 최소한의 코드 변경과 약간의 빌드 스크립트 조정만으로 Arm으로 성공적으로 마이그레이션
  • multi-arch Docker images 같은 최신 도구가 Arm 및 x86 환경 모두에서 구축 및 배포 단순화

Trial

33. Apache Paimon

  • Apache Paimonlakehouse architecture를 가능하게 하도록 설계된 오픈소스 데이터 레이크 형식
  • FlinkSpark 같은 처리 엔진과 원활하게 통합되어 스트리밍 및 배치 작업 모두 지원
  • Paimon 아키텍처의 주요 장점은 표준 데이터 레이크 형식과 LSM (log-structured merge tree) 구조의 융합
  • 이 조합은 데이터 레이크의 높은 성능 업데이트와 낮은 지연 읽기라는 전통적 과제 해결

34. DataDog LLM Observability

  • Datadog LLM Observability는 대형 언어 모델 및 에이전트 애플리케이션 워크플로우에 대한 엔드투엔드 추적, 모니터링, 진단 제공
  • 각 프롬프트, 도구 호출, 중간 단계를 스팬과 트레이스로 매핑하고, 지연시간, 토큰 사용량, 오류, 품질 메트릭 추적하며 Datadog의 광범위한 APM 및 가시성 제품군과 통합
  • 이미 Datadog를 사용 중이고 비용 구조에 익숙한 조직은 해당 워크로드를 계측할 수 있다고 가정할 때 LLM 가시성 기능이 AI 워크로드에 대한 가시성을 얻는 직관적인 방법임을 알 수 있음
  • LLM 계측 구성 및 사용에는 주의와 워크로드 및 구현에 대한 확실한 이해 필요하며 배포 시 데이터 엔지니어와 운영 직원의 긴밀한 협력 권장

35. Delta Sharing

  • Delta Sharing은 Databricks 및 Linux Foundation이 개발한 안전한 크로스 플랫폼 데이터 공유를 위한 오픈 표준 및 프로토콜
  • 클라우드 독립적이며 조직이 데이터를 복사하거나 복제하지 않고 클라우드 제공업체 및 온프레미스 위치에서 라이브 데이터 공유 가능
  • 간단한 REST API를 사용하여 수신자가 pandas, Spark 또는 Power BI 같은 도구를 사용하여 대규모 데이터세트를 검색할 수 있도록 단기 사전 서명된 URL 발급
  • 데이터 테이블, 뷰, AI 모델, 노트북 공유 지원하며 강력한 중앙 집중식 거버넌스 및 감사 제공

36. Dovetail

  • Dovetail platform은 분산된 정성적 연구 데이터 관리의 지속적인 과제 해결
  • 사용자 인터뷰, 전사, 통찰력을 위한 중앙 집중식 리포지토리 제공하여 원시 데이터를 구조화되고 분석 가능한 자산으로 전환
  • 제품 발견 워크플로우에서 특히 고객 인용문과 합성된 테마를 제품 가설 및 예상 ROI와 직접 연결하는 증거 추적 생성에 매우 유용
  • 그렇게 함으로써 Dovetail은 제품 의사 결정에서 정성적 데이터의 역할 강화

37. Langdock

  • Langdock는 조직이 내부 운영을 위한 생성 AI 에이전트 및 워크플로우를 개발하고 실행하는 플랫폼
  • 내부 채팅 어시스턴트, 여러 LLM에 연결하기 위한 API 레이어, Slack, Confluence, Google Drive 같은 시스템과 통합하는 에이전트 워크플로우 구축 도구가 있는 통합 환경 제공
  • 플랫폼은 엔터프라이즈 규정 준수 표준을 갖춘 온프레미스 및 EU 호스팅 옵션을 제공하여 데이터 주권 강조
  • Langdock를 배포하는 조직은 여전히 데이터 거버넌스에 세심한 주의를 기울여야 하며 toxic flow analysis 같은 기술을 사용하여 lethal trifecta 방지

38. LangSmith

  • LangSmith는 LangChain 팀의 호스팅 플랫폼으로 LLM 애플리케이션에 대한 가시성, 추적, 평가 제공
  • 체인, 도구, 프롬프트의 상세한 트레이스를 캡처하여 팀이 모델 동작을 디버그 및 측정하고 성능 회귀를 추적하며 평가 데이터 세트 관리 가능
  • LangSmith는 non-LangChain 워크플로우에 대한 제한된 지원을 가진 독점 SaaS 플랫폼으로 해당 생태계에 이미 투자한 팀에게 가장 매력적
  • 프롬프트 평가 및 실험에 대한 통합 지원은 Langfuse 같은 오픈소스 대안보다 특히 더 세련됨

39. Model Context Protocol (MCP)

  • Model Context Protocol (MCP)는 LLM 애플리케이션 및 에이전트가 외부 데이터 소스 및 도구와 통합하는 방법을 정의하는 오픈 표준
  • MCP는 컨텍스트 및 도구 액세스에 초점을 맞추어 에이전트 간 통신을 관리하는 Agent2Agent (A2A) 프로토콜과 구별
  • 지난 블립 이후 MCP 채택이 급증하여 JetBrains (IntelliJ) 및 Apple 같은 주요 기업이 FastMCP 같은 신흥 프레임워크와 함께 생태계에 합류
  • 프리뷰 MCP Registry 표준이 이제 공개 및 독점 도구 발견 지원

40. n8n

  • n8n은 Zapier 또는 Make(이전 Integromat)와 유사한 fair-code 라이선스 워크플로우 자동화 플랫폼이지만 자체 호스팅, 확장 가능, 코드 제어 가능한 옵션을 원하는 개발자를 위해 구축
  • Apache Airflow보다 워크플로우 생성에 대한 로우코드, 시각적 접근법 제공하면서도 JavaScript 또는 Python의 커스텀 코드 지원
  • 주요 사용 사례는 여러 서비스를 자동화된 워크플로우로 통합하는 것이지만 LLM을 구성 가능한 데이터 소스, 메모리, 도구와 연결할 수도 있음
  • 많은 팀이 n8n을 사용하여 채팅 애플리케이션이나 웹훅으로 트리거되는 에이전트 워크플로우를 빠르게 프로토타입하며 종종 import 및 export 기능을 활용하여 AI 지원으로 워크플로우 생성

41. OpenThread

  • OpenThread는 Google이 개발한 Thread 네트워킹 프로토콜의 오픈소스 구현
  • IPv6, 6LoWPAN, LR-WPAN 같은 네트워킹 레이어를 포함한 Thread 사양의 모든 주요 기능과 장치가 노드 및 보더 라우터로 작동할 수 있는 메시 네트워크 기능 지원
  • OpenThread는 공급업체가 자체 라디오 및 암호화 기능을 통합할 수 있는 유연한 추상화 레이어와 통합 훅을 활용하여 광범위한 하드웨어 플랫폼에서 실행
  • 이 성숙한 프로토콜은 상업용 제품에 널리 사용되며 경험상 배터리 작동 저전력 장치부터 대규모 메시 센서 네트워크까지 다양한 IoT 솔루션 구축에 신뢰할 수 있음

Assess

42. AG-UI Protocol

  • AG-UI는 풍부한 사용자 인터페이스와 에이전트 간 통신을 표준화하도록 설계된 오픈 프로토콜 및 라이브러리
  • 직접 사용자 대면 에이전트에 초점을 맞추며 미들웨어 및 클라이언트 통합을 사용하여 모든 프론트엔드 및 백엔드에 일반화
  • 프로토콜은 백엔드 에이전트가 프론트엔드 애플리케이션과 통신하는 일관된 방법을 정의하여 AI와 인간 사용자 간 실시간 상태 저장 협업 가능
  • SSE 및 WebSockets를 포함한 여러 전송 프로토콜 지원하고 에이전트 실행의 다양한 상태를 나타내는 표준화된 이벤트 유형 제공

43. Agent-to-Agent (A2A) Protocol

  • Agent2Agent (A2A)는 복잡한 다중 에이전트 워크플로우에서 에이전트 간 통신 및 상호작용에 대한 표준을 정의하는 프로토콜
  • Agent Cards를 사용하여 기술 발견 및 전송과 보안 체계의 사양을 포함한 에이전트 간 통신의 핵심 요소 설명
  • A2A는 에이전트의 상태, 메모리 또는 내부 같은 내부 세부 정보를 노출하지 않고 에이전트 간 통신에 초점을 맞춰 Model Context Protocol (MCP) 보완
  • 프로토콜은 장기 실행 작업에 대한 비동기 우선 접근법, 점진적 업데이트를 위한 스트리밍 응답, HTTPS, 인증, 권한 부여를 사용한 보안 전송 같은 모범 사례 촉진

44. Amazon S3 Vectors

  • Amazon S3 Vectors는 S3 객체 저장소를 네이티브 벡터 기능으로 확장하여 내장 벡터 저장 및 유사성 검색 기능 제공
  • Amazon Bedrock 및 OpenSearch를 포함한 AWS 생태계와 원활하게 통합되며 메타데이터 필터링 및 IAM을 통한 거버넌스 같은 추가 기능 제공
  • 여전히 프리뷰 상태이고 제한 사항이 있지만 가치 제안이 매력적임 - 이 비용 효율적이고 접근 가능한 벡터 저장소 접근법은 대량의 데이터 볼륨을 포함하고 낮은 지연시간이 주요 관심사가 아닌 다양한 애플리케이션 가능

45. Ardoq

  • Ardoq는 조직이 미래를 더 효과적으로 계획할 수 있도록 아키텍처 지식 기반을 구축, 관리, 확장할 수 있는 엔터프라이즈 아키텍처 (EA) 플랫폼
  • 드리프트 및 사일로화 경향이 있는 전통적인 정적 문서와 달리 Ardoq의 데이터 기반 접근법은 기존 시스템에서 정보를 가져와 경관이 진화함에 따라 최신 상태를 유지하는 동적 지식 그래프 생성
  • 특히 유용한 기능은 Git과 유사한 분기 및 병합 접근법을 사용하여 what-if 미래 상태를 시각적으로 모델링하고 정의할 수 있는 Ardoq Scenarios
  • 아키텍처 전환을 추구하는 조직은 이 프로세스를 간소화하고 가속화할 잠재력을 위해 Ardoq 같은 전용 EA 플랫폼 평가해야 함

46. CloudNativePG

  • CloudNativePG는 Kubernetes에서 고가용성 PostgreSQL 클러스터를 호스팅하고 관리하는 것을 단순화하는 Kubernetes Operator
  • Kubernetes에서 PostgreSQL 같은 상태 저장 서비스를 실행하는 것은 Kubernetes와 PostgreSQL 복제 모두에 대한 깊은 지식이 필요하여 복잡할 수 있음
  • CloudNativePG는 전체 PostgreSQL 클러스터를 단일의 구성 가능한 선언적 리소스로 취급하여 이 복잡성의 대부분을 추상화
  • 네이티브 스트리밍 복제를 사용한 원활한 primary/standby 아키텍처 제공하고 자체 치유 기능, 가장 정렬된 복제본을 승격하는 자동 페일오버, 실패한 복제본의 자동 재생성을 포함한 고가용성 기능 즉시 제공

47. Coder

  • Coder는 이전에 설명한 development environments in the cloud 실천법에 따라 표준화된 코딩 환경을 빠르게 프로비저닝하는 플랫폼
  • Gitpod(현재 Ona로 리브랜딩) 및 GitHub Codespaces 같은 유사한 도구와 비교하여 Coder는 Terraform을 통한 워크스테이션 사용자 정의에 대한 더 큰 제어 제공
  • 벤더의 서버가 아닌 클라우드 또는 데이터 센터의 자체 인프라에서 워크스테이션 호스팅
  • 이 접근법은 AI 코딩 에이전트를 실행하고 내부 조직 시스템에 액세스하는 기능을 포함하여 더 많은 유연성 제공

48. Graft

  • Graft는 에지 및 분산 환경에서 강력하게 일관되고 효율적인 데이터 동기화를 가능하게 하는 트랜잭션 저장소 엔진
  • lazy replication을 사용하여 필요 시에만 데이터 동기화, partial replication으로 대역폭 소비 최소화, serializable snapshot isolation으로 데이터 무결성 보장
  • 유사한 사용 사례를 위해 Radar에서 Electric을 언급했지만 Graft는 데이터 형식을 부과하지 않고 일관된 페이지 수준 업데이트를 지원하는 트랜잭션 시스템으로 객체 저장소를 전환하는 점이 독특
  • 로컬 우선 모바일 애플리케이션 구동, 복잡한 크로스 플랫폼 동기화 관리, 서버리스 또는 임베디드 시스템에서 상태 비저장 복제본의 백본 역할에 적합

49. groundcover

  • groundcover는 로그, 트레이스, 메트릭, Kubernetes 이벤트를 단일 창에 통합하는 클라우드 네이티브 가시성 플랫폼
  • eBPF를 활용하여 애플리케이션 코드에 에이전트나 SDK를 삽입하지 않고 세분화된 가시성 데이터를 제로 코드 계측으로 캡처
  • groundcover의 eBPF 센서는 모니터링하는 각 클러스터의 전용 노드에서 실행되어 관찰하는 애플리케이션과 독립적으로 작동
  • 주요 기능에는 심층 커널 수준 가시성, 데이터 프라이버시를 위한 bring-your-own-cloud (BYOC) architecture, 비용을 예측 가능하게 유지하는 데이터 볼륨 독립적 가격 모델 포함

50. Karmada

  • Karmada ("Kubernetes Armada")는 여러 Kubernetes 클러스터, 클라우드, 데이터 센터에서 워크로드를 오케스트레이션하는 플랫폼
  • 많은 팀이 현재 Flux 또는 ArgoCD 같은 GitOps 도구와 커스텀 스크립트를 결합하여 클러스터 전체에 배포하므로 목적별 솔루션이 환영받음
  • Karmada는 Kubernetes 네이티브 API를 활용하여 클라우드 네이티브 환경용으로 이미 구축된 애플리케이션을 변경할 필요 없음
  • 멀티 클라우드 관리, 고가용성, 장애 복구, 트래픽 스케줄링을 위한 고급 스케줄링 기능 제공

51. OpenFeature

  • 비즈니스가 확장됨에 따라 feature flag 관리는 종종 점점 복잡해지며, 팀은 가장 간단한 feature toggle을 넘어서는 추상화 레이어 필요
  • OpenFeature는 feature flag가 정의되고 소비되는 방식을 표준화하는 벤더 독립적이고 커뮤니티 주도 API 사양을 통해 이 레이어 제공
  • CLI는 환경 변수 또는 인메모리 구성을 사용한 기본 설정부터 ConfigCat 또는 LaunchDarkly 같은 성숙한 플랫폼까지 여러 스키마 정의에 대한 광범위한 지원 제공
  • 그러나 한 가지 중요한 주의 사항이 남아 있음: 팀은 플래그 확산, 애플리케이션 복잡성, 과도한 테스트 오버헤드를 피하기 위해 flag의 다양한 categories of flags를 별도로 그리고 규율 있게 관리해야 함

52. Oxide

  • 프라이빗 인프라를 구축하고 운영하는 것은 복잡하며, 이것이 공용 클라우드가 대부분의 조직에 기본값인 주요 이유 중 하나
  • 그러나 이를 필요로 하는 사람들을 위해 Oxide는 처음부터 하드웨어와 소프트웨어를 조립하고 통합하는 대안 제공
  • 완전히 통합된 시스템 소프트웨어를 실행하는 컴퓨팅, 네트워킹, 저장소가 포함된 사전 구축된 랙 제공
  • 팀은 Terraform 및 기타 자동화 도구를 사용하여 Oxide의 IaaS API를 통해 리소스 관리 가능 - Oxide가 온프레미스 탄력적 인프라라고 부르는 것

53. Restate

  • Restate는 상태 저장, 내결함성 애플리케이션을 구축할 때 복잡한 분산 시스템 과제를 해결하도록 설계된 지속적 실행 플랫폼
  • 실행 저널링을 통해 모든 단계를 기록하여 내결함성, 신뢰할 수 있는 복구, 서비스 간 정확히 한 번 통신 보장
  • 플랫폼의 주요 아키텍처 장점은 애플리케이션 로직을 세 가지 지속적 서비스 유형으로 분리: 상태 비저장 함수를 위한 Basic Services, 동시 상태 저장 엔티티를 모델링하는 Virtual Objects, 복잡한 다단계 프로세스를 오케스트레이션하는 Workflows
  • 대규모 보험 시스템에서 Restate를 신중하게 평가하고 있으며 지금까지 성능에 매우 만족

54. SkyPilot

  • SkyPilot은 온프레미스 또는 클라우드에서 AI 워크로드를 실행하고 확장하기 위한 오픈소스 플랫폼
  • UC Berkeley의 Sky Computing Lab에서 개발한 SkyPilot은 지능형 브로커 역할을 하여 주요 클라우드 및 Kubernetes 클러스터에서 가장 저렴하고 사용 가능한 GPU를 자동으로 찾고 프로비저닝하여 종종 컴퓨팅 비용 절감
  • 인프라 팀의 경우 Slurm 같은 사용 편의성, 클라우드 네이티브 견고성, 파드에 대한 직접 SSH 액세스, 갱 스케줄링 및 멀티 클러스터 지원 같은 기능을 제공하여 Kubernetes에서 AI 실행 단순화
  • 훈련 또는 추론 워크로드의 원활한 확장 지원

55. StarRocks

  • StarRocks는 전통적인 OLAP 시스템의 속도와 현대 데이터 레이크하우스의 유연성을 결합하여 실시간 비즈니스 인텔리전스를 재정의하는 분석 데이터베이스
  • SIMD 최적화 실행 엔진, 컬럼 저장소, 정교한 비용 기반 옵티마이저를 통해 대규모 규모에서 1초 미만의 쿼리 지연시간 달성
  • 이 고성능 아키텍처를 통해 사용자는 사전 계산이나 데이터 복사 없이 Apache Iceberg 같은 오픈 데이터 형식에서 직접 복잡한 분석 실행 가능
  • 이 공간에는 많은 플랫폼이 있지만 StarRocks를 극한의 동시성과 일관된 최신 데이터 신선도 모두를 요구하는 비용 효율적인 솔루션의 강력한 후보로 봄

56. Uncloud

  • Uncloud는 개발자가 Docker Compose 애플리케이션을 프로덕션으로 가져갈 수 있게 하는 경량 컨테이너 오케스트레이션 및 클러스터링 도구
  • Kubernetes의 운영 오버헤드 없이 간단하고 클라우드 같은 경험 제공
  • 통신을 위한 안전한 WireGuard 메시 네트워크를 자동으로 구성하고 Caddy 역방향 프록시를 사용하여 자동 HTTPS 및 로드 밸런싱 제공함으로써 크로스 머신 확장 및 무중단 배포 달성
  • Uncloud의 주요 아키텍처 장점은 완전히 분산된 설계로 중앙 제어 평면의 필요성을 제거하고 개별 머신이 오프라인으로 전환되어도 클러스터 작업이 기능적으로 유지되도록 보장

[Tools]

Adopt

57. ClickHouse

  • ClickHouse는 실시간 분석을 위한 오픈소스 분산 컬럼형 온라인 분석 처리(OLAP) 데이터베이스
  • 대규모 데이터 분석을 처리할 수 있는 매우 성능이 뛰어나고 확장 가능한 엔진으로 성숙
  • 증분 구체화 뷰, 효율적인 쿼리 엔진, 강력한 데이터 압축으로 대화형 쿼리에 이상적
  • 근사 집계 함수에 대한 내장 지원으로 정확도와 성능 간 절충 가능하며 이는 고카디널리티 분석에 특히 유용

58. NeMo Guardrails

  • NeMo Guardrails는 NVIDIA의 오픈소스 툴킷으로 LLM 기반 대화형 애플리케이션에 프로그래밍 가능한 안전 및 제어 메커니즘을 쉽게 추가
  • 동작 규칙을 정의하고 시행하여 출력이 안전하고 주제에 맞으며 규정을 준수하도록 보장
  • 개발자는 유연한 대화 흐름을 생성하고 대화를 관리하며 사전 정의된 경로와 운영 절차를 시행하기 위해 목적별 언어인 Colang를 사용
  • NeMo Guardrails는 성능을 위한 비동기 우선 API를 제공하고 콘텐츠 안전성, 보안, 입력 및 출력 조정을 위한 안전장치 지원

59. pnpm

  • 지난 Radar 이후 팀으로부터 pnpm에 대한 긍정적인 피드백을 계속 받고 있음
  • pnpm은 속도와 디스크 공간 효율성 모두에서 대안에 비해 상당한 성능 향상을 제공하는 Node.js 패키지 관리자
  • 여러 프로젝트의 node_modules 폴더에서 중복 패키지를 디스크의 단일 위치로 하드 링크하고 성능을 더욱 향상시키는 증분 파일 수준 최적화 지원
  • pnpm이 최소한의 호환성 문제로 훨씬 빠른 피드백 루프를 제공하기 때문에 Node.js 패키지 관리의 기본 선택이 됨

60. Pydantic

  • Pydantic은 표준 타입 힌트를 사용하여 데이터 모델을 정의하고 런타임에 데이터 스키마를 강제하는 Python 라이브러리
  • 원래 타입 주석은 정적 분석을 위해 Python에 추가되었지만 그 증가하는 다양성이 런타임 검증을 포함한 더 광범위한 사용으로 이어짐
  • 빠른 Rust 코어를 기반으로 구축되어 효율적인 데이터 검증, 파싱, 직렬화 제공
  • LLM 애플리케이션에서 필수적이 되었으며 일반적으로 structured output from LLMs 기술을 사용하여 LLM의 예측 불가능한 특성 관리

Trial

61. AI Design Reviewer

  • AI Design Reviewer는 디자인 감사 또는 휴리스틱 평가를 수행하고 기존 또는 새 디자인에 대한 실행 가능한 피드백을 수집하기 위한 Figma 플러그인
  • 감사는 UX 비평, UI 불일치, 접근성 격차, 콘텐츠 품질, 엣지 케이스 시나리오 다룸
  • 문제 식별 외에도 팀이 공유 디자인 어휘와 디자인 선택 뒤의 근거를 구축하는 데 도움이 되는 도메인 인식 권장 사항 제공
  • 팀은 AI Design Reviewer를 사용하여 레거시 디자인을 분석 - 유지할 긍정적 경험과 해결할 부정적 경험을 식별하여 재디자인을 위한 UX 목표에 정보 제공

62. Barman

  • Barman (Backup and Recovery Manager)은 PostgreSQL 서버의 백업 및 재해 복구를 관리하는 오픈소스 도구
  • 다양한 방법을 통해 물리적 백업 생성을 단순화하고, 포괄적인 카탈로그로 구성하며, 시점 복구 기능으로 라이브 서버에 백업 복원하는 전체 재해 복구 프로세스 지원
  • Barman이 강력하고 사용하기 쉽다는 것을 발견했으며 마이그레이션 활동 중 시점 복구 작업의 속도에 깊은 인상
  • 예약된 백업에도 유능하며 스케줄링 및 보존의 복잡하고 혼합된 구성을 처리하는 능력 보유

63. Claude Code

  • Anthropic의 Claude Code는 복잡한 다단계 워크플로우를 계획하고 구현하기 위한 자연어 인터페이스와 에이전트 실행 모델을 제공하는 에이전트 AI 코딩 도구
  • 1년도 안 되어 출시되었지만 Thoughtworks 내외부의 개발자들에게 이미 널리 채택되어 Trial에 배치
  • OpenAI의 Codex CLI, Google의 Gemini CLI, 오픈소스 OpenCode 같은 콘솔 기반 코딩 에이전트가 출시되었고, Cursor, Windsurf, GitHub Copilot 같은 IDE 기반 어시스턴트는 이제 에이전트 모드 포함
  • 팀이 코드를 작성하고 수정할 뿐만 아니라 사양, 스토리, 구성, 인프라, 문서를 관리하기 위한 범용 AI 에이전트로 사용하는 것을 봄

64. Cleanlab

  • 데이터 중심 AI 패러다임에서 데이터세트 품질을 개선하는 것이 종종 모델 자체를 튜닝하는 것보다 더 큰 성능 향상 제공
  • Cleanlab은 이 문제를 해결하도록 설계된 오픈소스 Python 라이브러리로 텍스트, 이미지, 표 형식, 오디오 데이터세트에서 잘못된 레이블링, 이상값, 중복 같은 일반적인 데이터 문제를 자동으로 식별
  • confident learning 원칙을 기반으로 구축된 Cleanlab은 모델 예측 확률을 활용하여 레이블 노이즈를 추정하고 데이터 품질 정량화
  • 이 모델 독립적 접근법을 통해 개발자는 데이터세트 오류를 진단하고 수정한 다음 개선된 견고성과 정확도를 위해 모델 재훈련 가능

65. Context7

  • Context7은 AI 생성 코드의 부정확성을 해결하는 MCP 서버
  • LLM이 오래된 훈련 데이터에 의존하는 반면 Context7은 프로젝트에서 사용되는 라이브러리와 프레임워크에 대한 정확하고 최신이며 버전별 코드를 생성하도록 보장
  • 프레임워크 소스 리포지토리에서 직접 최신 문서와 기능적 코드 예제를 가져와 프롬프팅 순간에 LLM의 컨텍스트 창에 주입
  • 경험상 Context7이 코드 환각과 오래된 훈련 데이터에 대한 의존을 크게 줄임

66. Data Contract CLI

  • Data Contract CLIData Contract 사양 작업을 위해 설계된 오픈소스 명령줄 도구
  • 데이터 계약을 생성 및 편집할 수 있게 하고 중요하게는 데이터를 계약에 대해 검증할 수 있어 데이터 제품의 무결성과 품질을 보장하는 데 필수적
  • CLI는 여러 스키마 정의(Avro, SQL DDL, Open Data Contract Standard 등)에 대한 광범위한 지원을 제공하고 다양한 계약 버전을 비교하여 즉시 주요 변경 사항 감지 가능
  • 특히 데이터 메시 공간에서 CI/CD 통합을 통해 데이터 제품 간 계약 거버넌스를 운영화하는 데 유용함을 발견

67. Databricks Assistant

  • Databricks Assistant는 Databricks 플랫폼에 직접 통합된 AI 기반 대화형 도구로 데이터 전문가를 위한 상황별 페어 프로그래머 역할
  • 범용 코딩 어시스턴트와 달리 Unity Catalog의 메타데이터를 포함하여 Databricks 환경 및 데이터 컨텍스트에 대한 기본 이해의 이점
  • Assistant는 코드 스니펫 생성을 넘어 복잡한 다단계 SQL 및 Python 쿼리를 작성하고 오류를 진단하며 상세하고 워크스페이스별 설명 제공 가능
  • 이미 Databricks 생태계에 투자한 조직의 경우 생산성을 가속화하고 복잡한 데이터 작업에 대한 진입 장벽을 낮출 수 있음

68. Hoppscotch

  • Hoppscotch는 API 개발, 디버깅, 테스트, 공유를 위한 경량 오픈소스 도구
  • HTTP, GraphQL, WebSocket을 포함한 여러 프로토콜을 지원하고 웹, 데스크톱, CLI 환경용 크로스 플랫폼 클라이언트 제공
  • API 도구 공간이 Postman, Insomnia, Bruno 같은 대안으로 붐비지만 Hoppscotch는 경량 풋프린트와 프라이버시 친화적 디자인으로 두드러짐
  • 분석을 생략하고 로컬 우선 저장소를 사용하며 자체 호스팅을 지원하여 강력한 데이터 프라이버시를 유지하면서 API 스크립트를 공유하는 직관적인 방법을 찾는 조직에 강력한 선택

69. NVIDIA DCGM Exporter

  • NVIDIA DCGM Exporter는 팀이 분산 GPU 훈련을 대규모로 모니터링하는 데 도움이 되는 오픈소스 도구
  • NVIDIA Data Center GPU Manager (DCGM)의 독점 원격 측정을 표준 모니터링 시스템과 호환되는 오픈 형식으로 변환
  • GPU 및 호스트 서버 모두에서 GPU 활용도, 온도, 전력, ECC 오류 수 같은 중요한 실시간 메트릭 노출
  • 이 가시성은 커스텀 LLM을 미세 조정하거나 장기 실행 GPU 집약적 훈련 작업을 실행하는 조직에 필수적

70. RelationalAI

  • 대량의 다양한 데이터가 Snowflake로 가져오면 해당 데이터 내의 고유한 관계와 암시적 규칙이 모호해질 수 있음
  • Snowflake Native App으로 구축된 RelationalAI는 팀이 의미 있는 개념을 포착하고 핵심 비즈니스 엔티티를 정의하며 Snowflake 테이블에 대해 직접 복잡한 로직을 내장하는 정교한 모델을 구축할 수 있게 함
  • 강력한 Graph Reasoner를 통해 사용자는 이러한 모델을 기반으로 관계형 지식 그래프를 생성, 분석, 시각화 가능
  • 대규모의 빠르게 변화하는 데이터세트를 관리하는 조직의 경우 지식 그래프 구축이 사전 모니터링 및 더 풍부하고 실행 가능한 통찰력 생성에 필수적일 수 있음

71. UX Pilot

  • UX Pilot는 와이어프레이밍부터 고충실도 시각 디자인 및 검토까지 UX 디자인 프로세스의 여러 단계를 지원하는 AI 도구
  • 텍스트 또는 이미지 입력을 받아들이고 자동으로 화면, 플로우, 레이아웃 생성 가능
  • Autoflow 기능은 사용자 플로우 전환을 생성하고 Deep Design은 더 풍부하고 상세한 출력 생성
  • UX Pilot는 표준 디자인 도구 내에서 정제를 위해 생성된 디자인을 내보내는 Figma 플러그인도 포함

72. v0

  • v0는 Radar에서 마지막으로 소개한 이후 진화
  • 이제 제품 관리자가 셀프서비스 UI 프로토타입을 더 쉽게 생성하고 조정할 수 있는 디자인 모드 포함
  • 최신 릴리스는 큰 컨텍스트 창과 멀티모달 기능을 갖춘 자체 모델을 도입하여 v0가 텍스트 및 시각적 입력 모두에서 UI를 생성하고 개선할 수 있게 함
  • 또 다른 주목할 만한 추가 사항은 시스템이 더 복잡한 작업을 분해하고 각각에 적절한 모델을 선택할 수 있는 에이전트 모드

Assess

73. Augment Code

  • Augment Code는 대규모 코드베이스에서 깊은 컨텍스트 인식 지원을 제공하는 AI 코딩 어시스턴트
  • 코드가 자주 변경되더라도 빠른 코드 인덱스 업데이트와 빠른 검색을 가능하게 하는 고급 context engineering을 통해 두드러짐
  • Augment는 Claude Sonnet 4 및 4.5와 GPT-5 같은 모델을 지원하고 GitHub, Jira, Confluence와 통합되며 외부 도구 상호 운용성을 위한 Model Context Protocol (MCP) 지원
  • 리팩토링 및 종속성 업그레이드부터 스키마 업데이트까지 복잡한 코드베이스 변경에 대한 단계별 안내 제공

74. Azure AI Document Intelligence

  • Azure AI Document Intelligence (이전 Form Recognizer)는 구조화되지 않은 문서에서 텍스트, 표, 키-값 쌍을 추출하여 구조화된 데이터로 변환
  • 사전 훈련된 딥러닝 모델을 사용하여 레이아웃과 의미를 해석하고 특수 형식을 위해 노코드 인터페이스를 통해 커스텀 모델 훈련 가능
  • 팀 중 하나는 ADI가 수동 데이터 입력을 크게 줄이고 데이터 정확도를 개선하며 보고를 가속화하여 더 빠른 데이터 기반 의사 결정으로 이어졌다고 보고
  • Amazon Textract 및 Google Document AI와 마찬가지로 강력한 레이아웃 이해로 엔터프라이즈급 문서 처리 제공

75. Docling

  • Docling은 구조화되지 않은 데이터의 고급 문서 처리를 위한 오픈소스 Python 및 TypeScript 라이브러리
  • PDF 및 PowerPoint 같은 실제 문서를 깨끗하고 기계 판독 가능한 형식으로 변환하는 종종 간과되는 "마지막 마일" 문제 해결
  • 전통적인 추출기와 달리 Docling은 컴퓨터 비전 기반 접근법을 사용하여 문서 레이아웃과 의미 구조를 해석하여 출력이 retrieval-augmented generation (RAG) 파이프라인에 특히 가치 있게 만듦
  • 복잡한 문서를 JSON 또는 Markdown 같은 구조화된 형식으로 변환하여 structured output from LLMs 같은 기술 지원

76. E2B

  • E2B는 클라우드의 안전하고 격리된 샌드박스에서 AI 생성 코드를 실행하기 위한 오픈소스 도구
  • 에이전트는 Firecracker microVM 위에 구축된 이러한 샌드박스를 사용하여 코드를 안전하게 실행하고 데이터를 분석하며 연구를 수행하거나 가상 머신을 운영 가능
  • 이를 통해 실행 환경에 대한 완전한 제어와 보안으로 엔터프라이즈급 AI 에이전트를 구축하고 배포 가능

77. Helix editor

  • 명령줄 즐겨찾기 Vim을 대체하려는 간단한 텍스트 편집기의 부활이 다소 있었음
  • HelixNeovim 및 최근 Kakoune 와 함께 이러한 붐비는 공간의 경쟁자 중 하나
  • 다소 장난스럽게 자신을 포스트 모던 텍스트 편집기로 묘사하며 Helix는 여러 커서, Tree-sitter 지원, 통합된 Language Server Protocol (LSP) 지원을 특징으로 하며 이것이 처음 우리의 주의를 끌었음
  • 진행 중인 플러그인 시스템으로 활발히 개발되고 있으며 전반적으로 Vim 사용자에게 친숙하게 느껴지지만 몇 가지 현대적 편의 기능을 추가하는 경량 모달 편집기

78. Kueue

  • Kueue는 할당량 및 리소스 소비를 관리하는 작업 대기열을 위한 Kubernetes 네이티브 컨트롤러
  • 다양한 우선순위와 리소스 요구사항을 가진 Kubernetes 워크로드를 처리하기 위한 API를 제공하며 작업을 허용하거나 제거할 시기를 결정하는 작업 수준 관리자로 기능
  • 효율적인 리소스 관리, 작업 우선순위 지정, 고급 스케줄링을 위해 설계된 Kueue는 Kubernetes 환경, 특히 Kubeflow 같은 도구를 사용하는 ML 워크로드의 워크로드 실행 최적화에 도움
  • cluster-autoscaler 및 kube-scheduler를 대체하기보다는 함께 작동하며 순서, 할당량, 우선순위, 토폴로지 인식을 기반으로 한 작업 허용에 초점

79. MCPScan.ai

  • MCPScan.ai는 스캔 및 프록시 두 가지 모드로 작동하는 Model Context Protocol (MCP) 서버용 보안 스캐너
  • 스캔 모드에서는 구성 및 도구 설명을 분석하여 프롬프트 주입, 도구 중독, toxic flows 같은 알려진 취약점 감지
  • 프록시 모드에서 MCPScan.ai는 에이전트 시스템과 MCP 서버 사이의 브리지 역할을 하며 런타임 트래픽을 지속적으로 모니터링
  • 이 모드는 도구 호출 검증, PII 감지, 데이터 흐름 제약을 포함한 커스텀 보안 규칙 및 가드레일도 시행

80. oRPC

  • oRPC (OpenAPI Remote Procedure Call)는 TypeScript에서 엔드투엔드 타입세이프 API를 제공하면서 OpenAPI 사양을 완전히 준수
  • 완전한 OpenAPI 사양을 자동으로 생성하여 통합 및 문서화 단순화 가능
  • tRPCElysiaJS 같은 대안이 종종 타입 안전성을 얻기 위해 새로운 프레임워크를 채택해야 하는 반면, oRPC는 Express, Fastify, Hono, Next.js를 포함한 기존 Node.js 프레임워크와 원활하게 통합
  • 이러한 유연성으로 파괴적인 리팩토링 없이 기존 API에 엔드투엔드 타입 안전성을 채택하려는 팀에게 탁월한 선택

81. Power user for dbt

  • Power user for dbtdbtdbt Cloud 환경 모두와 직접 통합되는 Visual Studio Code용 확장
  • dbt가 우리가 좋아하는 도구 중 하나로 남아 있기 때문에 사용성을 개선하는 모든 것이 생태계에 환영받는 추가 사항
  • 이전에는 개발자가 IDE 외부에서 SQL 코드를 검증하거나 모델 계보를 검사하기 위해 여러 도구에 의존
  • 이 확장으로 해당 기능이 이제 VS Code에 내장되어 코드 자동완성, 실시간 쿼리 결과, 시각적 모델 및 컬럼 계보 제공

82. Serena

  • SerenaClaude Code 같은 코딩 에이전트에게 의미론적 코드 검색 및 편집을 위한 IDE 같은 기능을 제공하는 강력한 코딩 툴킷
  • 심볼 수준에서 작동하고 코드의 관계형 구조를 이해함으로써 Serena는 토큰 효율성을 크게 개선
  • 전체 파일을 읽거나 조잡한 문자열 교체에 의존하는 대신 코딩 에이전트는 find_symbol, find_referencing_symbols, insert_after_symbol 같은 정밀한 Serena 도구를 사용하여 코드를 찾고 편집 가능
  • 소규모 프로젝트에서는 영향이 미미하지만 코드베이스가 커짐에 따라 이러한 효율성은 매우 가치 있음

83. SweetPad

  • SweetPad 확장은 개발자가 Apple 플랫폼에서 Swift 애플리케이션 개발 전체 수명주기를 위해 VS Code 또는 Cursor를 사용할 수 있게 함
  • xcodebuild, xcode-build-server, swift-format 같은 필수 도구를 통합하여 Xcode로 지속적으로 전환할 필요 제거
  • 개발자는 시뮬레이터를 관리하고 장치에 배포하면서 Xcode를 열지 않고도 IDE에서 직접 iOS, macOS, watchOS용 Swift 애플리케이션을 빌드, 실행, 디버그 가능

84. Tape/Z (Tools for Assembly Program Exploration for Z/OS)

  • Tape/Z (Tools for Assembly Program Exploration for Z/OS)는 메인프레임 HLASM (High-Level Assembler) 코드 분석을 위한 진화하는 툴킷
  • Thoughtworker가 개발했으며 파싱, 제어 흐름 그래프 구성, 종속성 추적, 플로차트 시각화 같은 기능 제공
  • 메인프레임 공간에서 오픈되고 커뮤니티 주도 도구의 희소성을 오랫동안 언급해왔으며 대부분의 옵션은 독점적이거나 벤더 생태계에 연결되어 있음
  • Tape/Z는 접근 가능하고 스크립트 가능한 분석 기능을 제공하여 그 격차를 메우는 데 도움

[Languages and Frameworks]

Adopt

85. Fastify

  • Fastify에 대한 긍정적인 경험을 계속하고 있음 - Node.js용 빠르고 의견이 없으며 오버헤드가 낮은 웹 프레임워크
  • 파싱, 검증, 직렬화를 포함한 최소 웹 프레임워크의 모든 필수 기능과 견고한 플러그인 시스템 및 강력한 커뮤니티 지원 제공
  • 팀은 Express.js 같은 대안에 비해 Fastify를 사용할 때 중요한 단점을 보지 못했으며 측정 가능한 성능 향상도 얻어 Node.js의 최소 웹 개발에 매력적인 선택

86. LangGraph

  • LangGraph는 LLM을 사용하여 상태 저장 다중 에이전트 애플리케이션을 구축하기 위한 오케스트레이션 프레임워크
  • 노드 및 에지 같은 저수준 프리미티브와 개발자에게 에이전트 워크플로우, 메모리 관리, 상태 지속성에 대한 세분화된 제어를 제공하는 내장 기능 제공
  • 개발자가 간단한 사전 구축된 그래프로 시작하여 복잡하고 진화하는 에이전트 아키텍처로 확장할 수 있음을 의미
  • 스트리밍, 고급 컨텍스트 관리, 모델 폴백 및 도구 오류 처리 같은 복원력 패턴 지원으로 LangGraph는 강력한 프로덕션급 에이전트 애플리케이션 구축 가능

87. vLLM

  • vLLM은 클라우드 또는 온프레미스에서 실행할 수 있는 LLM용 고처리량, 메모리 효율적인 추론 엔진
  • 여러 모델 아키텍처와 인기 있는 오픈소스 모델 지원
  • 팀은 NVIDIA DGX 및 Intel HPC 같은 GPU 플랫폼에 dockerized vLLM 워커를 배포하여 Llama 3.1 (8B 및 70B), Mistral 7B, Llama-SQL을 포함한 모델을 개발자 코딩 지원, 지식 검색, 자연어 데이터베이스 상호작용을 위해 호스팅
  • vLLM은 OpenAI SDK 표준과 호환되어 일관된 모델 서빙 가능

Trial

88. Crossplane

  • Radar에 마지막으로 등장한 이후 Crossplane 채택이 계속 증가했으며 특히 Kubernetes 클러스터 확장에 사용
  • 작업에서 Crossplane이 일반 목적 인프라 코드(IaC) 도구가 아닌 특정 사용 사례에서 뛰어남을 발견
  • 이전 관찰이 여전히 유효: Crossplane은 Kubernetes 내에 배포된 워크로드의 동반자로 가장 잘 작동하며 Terraform 같은 도구의 완전한 대체물은 아님
  • Crossplane을 주요 IaC 솔루션으로 "올인"한 팀은 종종 어려움을 겪었지만 실용적으로 사용한 팀 - 타깃팅된 커스텀 사용 사례를 위해 - 강력한 결과를 봄

89. DeepEval

  • DeepEval은 LLM 성능 평가를 위한 오픈소스 Python 기반 평가 프레임워크
  • LlamaIndex 또는 LangChain으로 구축된 retrieval-augmented generation (RAG) 및 기타 애플리케이션 평가와 모델 기준선 및 벤치마크에 사용 가능
  • DeepEval은 단어 매칭 점수를 넘어 실제 시나리오에서 더 신뢰할 수 있는 평가를 제공하기 위해 정확도, 관련성, 일관성 평가
  • 환각 감지, 답변 관련성, 하이퍼파라미터 최적화 같은 메트릭 포함하고 사용 사례별 커스텀 메트릭 생성을 위한 GEval 지원

90. FastMCP

  • Model Context Protocol (MCP)는 LLM 애플리케이션에 컨텍스트 및 도구를 제공하는 표준으로 빠르게 자리잡고 있음
  • 그러나 MCP 서버 구현은 일반적으로 설정, 프로토콜 처리, 오류 관리를 위한 상당한 보일러플레이트 포함
  • FastMCP는 프로토콜 복잡성을 추상화하고 개발자가 직관적인 Python 데코레이터를 통해 MCP 리소스 및 도구를 정의할 수 있게 하여 이 프로세스를 단순화하는 Python 프레임워크
  • 이 추상화를 통해 팀이 비즈니스 로직에 집중할 수 있어 더 깨끗하고 유지 관리 가능한 MCP 구현으로 이어짐

91. LiteLLM

  • LiteLLM은 표준화된 OpenAI API 형식을 통해 여러 LLM 제공업체와 원활한 통합을 제공하는 SDK
  • 광범위한 제공업체 및 모델을 지원하여 텍스트 완성, 임베딩, 이미지 생성을 위한 통합 인터페이스 제공
  • 제공업체별 API 차이를 추상화함으로써 LiteLLM은 통합을 단순화하고 자동으로 요청을 올바른 모델 엔드포인트로 라우팅
  • 프록시 프레임워크를 통해 가드레일, 캐싱, 로깅, 속도 제한, 로드 밸런싱 같은 프로덕션급 기능도 포함

92. MLForecast

  • MLForecast는 기계 학습 모델을 대규모 데이터세트에 적용하는 시계열 예측을 위한 Python 프레임워크 및 라이브러리
  • 래그, 롤링 통계, 날짜 기반 기능을 포함한 일반적으로 복잡한 자동화된 특징 엔지니어링 프로세스를 단순화
  • Spark 및 Dask 같은 분산 컴퓨팅 프레임워크에 대한 네이티브 지원을 가진 몇 안 되는 라이브러리 중 하나로 확장성 보장
  • conformal prediction 같은 방법을 사용한 확률적 예측도 지원하여 예측 불확실성의 정량적 측정 제공

93. Nuxt

  • Nuxt는 풀스택 웹 애플리케이션 생성을 위해 Vue.js 위에 구축된 의견이 있는 메타 프레임워크로 종종 "Vue.js용 Next.js"로 알려짐
  • React 대응물과 유사하게 Nuxt는 사전 렌더링, 서버 사이드 렌더링(SSR), 메타데이터 관리 같은 SEO 친화적 기능 제공
  • Nuxt는 Next.js 뒤의 동일한 회사인 Vercel의 지원을 받으며 강력한 커뮤니티와 공식 및 타사 모듈 생태계의 지원을 받음
  • 이러한 모듈은 이미지 처리, 사이트맵, Tailwind CSS 같은 기능의 통합을 단순화

94. Phoenix

  • Phoenix와의 긍정적인 경험을 계속하고 있음 - Elixir로 작성된 서버 사이드 웹 MVC 프레임워크
  • Phoenix는 Ruby on Rails의 신속한 애플리케이션 개발 및 개발자 경험 학습을 기반으로 하면서 함수형 프로그래밍 패러다임으로도 발전
  • 이 볼륨에서는 Phoenix LiveView 1.0 릴리스를 강조
  • LiveView는 HTMX 또는 Hotwire 와 유사한 HTML-over-the-wire 솔루션으로 개발자가 완전히 서버 렌더링 HTML로 풍부하고 실시간 사용자 경험 구축 가능

95. Presidio

  • Presidio는 구조화 및 비구조화 텍스트에서 민감한 데이터를 identifying 하고 anonymizing 하기 위한 데이터 보호 SDK
  • named entity recognition, 정규 표현식, 규칙 기반 로직을 사용하여 신용카드 번호, 이름, 위치 같은 개인 식별 정보(PII) 감지
  • Presidio는 custom 엔티티 인식기 및 익명화 파이프라인을 지원하여 조직이 자체 프라이버시 및 규정 준수 요구사항에 맞게 조정 가능
  • 팀은 LLM과 통합할 때 엄격한 데이터 공유 제어가 있는 엔터프라이즈 환경에서 Presidio 사용

96. Pydantic AI

  • Pydantic AI는 프로덕션에서 GenAI 에이전트를 구축하기 위한 안정적이고 잘 지원되는 오픈소스 프레임워크로 계속 입증
  • 신뢰할 수 있는 Pydantic 기반 위에 구축되어 강력한 타입 안전성, OpenTelemetry를 통한 일급 가시성, 내장 평가 도구 제공
  • 2025년 9월 4일의 버전 1.0 릴리스는 성숙도의 중요한 이정표 표시
  • 그 이후로 단순성과 유지 관리 가능성으로 신뢰할 수 있고 널리 채택되어 LangChain 및 LangGraph 같은 다른 인기 에이전트 프레임워크 대열에 합류

97. Tauri

  • Tauri는 단일 웹 UI 코드베이스를 사용하여 고성능 데스크톱 애플리케이션을 구축하기 위한 프레임워크
  • Electron 같은 전통적인 웹 래퍼와 달리 Tauri는 Rust를 기반으로 구축되어 운영 체제의 네이티브 webview를 활용하여 더 작은 바이너리와 더 강력한 보안 제공
  • 몇 년 전 Tauri를 처음 평가했으며 그 이후 데스크톱을 넘어 iOS 및 Android 지원으로 확장
  • 최신 버전은 더 유연한 권한 및 범위 모델을 도입하고 이전 권한 목록을 대체하며 원시 데이터 전송을 지원하고 성능을 개선하는 강화된 프로세스 간 통신(IPC) 레이어 특징

Assess

98. Agent Development Kit (ADK)

  • Agent Development Kit (ADK)는 단순히 프롬프팅에 의존하기보다는 현대적인 소프트웨어 엔지니어링 규율을 적용하는 AI 에이전트 개발 및 배포를 위한 프레임워크
  • 클래스, 메서드, 워크플로우 패턴, CLI 지원 같은 친숙한 추상화 도입
  • LangGraph 또는 CrewAI 같은 프레임워크와 비교하여 ADK의 강점은 Google의 AI 인프라와의 깊은 통합으로 엔터프라이즈 준비 그라운딩, 데이터 액세스, 모니터링 제공
  • 상호 운용성을 위해 설계되어 도구 래퍼 및 에이전트 간 통신을 위한 A2A protocol 지원

99. Agno

  • Agno는 다중 에이전트 시스템을 구축, 실행, 관리하기 위한 프레임워크
  • 완전 자율 에이전트 또는 제어된 단계 기반 워크플로우를 생성할 수 있는 유연성 제공하며 human-in-the-loop, 세션 관리, 메모리, 지식에 대한 내장 지원 포함
  • 인상적인 에이전트 시작 시간과 낮은 메모리 소비로 효율성에 대한 초점 높이 평가
  • Agno는 자체 런타임인 AgentOS와 함께 제공되며 이는 에이전트 시스템의 간소화된 테스트, 모니터링, 관리를 위한 통합 제어 플레인이 있는 FastAPI 애플리케이션

100. assistant-ui

  • assistant-ui는 AI 채팅 인터페이스를 위한 오픈소스 TypeScript 및 React 라이브러리
  • 메시지 편집 및 분기 전환을 위한 스트리밍, 상태 관리, 일반적인 UX 기능 같은 채팅 UI 구현의 복잡한 부분을 처리하면서 개발자가 Radix 프리미티브를 사용하여 자체 구성 요소 디자인 가능
  • Vercel AI SDKLangGraph 를 포함한 인기 런타임과의 통합을 지원하고 복잡한 사용 사례를 위한 사용자 정의 가능한 런타임 솔루션 제공
  • assistant-ui로 간단한 채팅 인터페이스를 성공적으로 구축했으며 결과에 만족

101. AutoRound

  • Intel의 AutoRound는 LLM 및 vision language models (VLM) 같은 대규모 AI 모델을 정확도 손실을 최소화하면서 압축하기 위한 고급 양자화 알고리듬
  • sign-gradient descent 최적화를 사용하여 모델 크기를 초저비트 너비(2-4비트)로 줄이고 최적 효율성을 위해 레이어 전체에 혼합 비트 너비 적용
  • 이 양자화 프로세스는 또한 매우 빠름: 단일 GPU에서 몇 분 만에 70억 파라미터 모델 양자화 가능
  • AutoRound는 vLLMTransformers 같은 인기 있는 추론 엔진과 통합되어 모델 양자화를 위한 매력적인 옵션

102. Browser Use

  • Browser Use는 LLM 기반 에이전트가 웹 브라우저를 운영하고 웹 애플리케이션과 상호작용할 수 있게 하는 오픈소스 Python 라이브러리
  • 탐색, 데이터 입력, 텍스트 추출을 할 수 있으며 애플리케이션 간 작업을 조정하기 위해 여러 탭 관리 가능
  • 라이브러리는 AI 에이전트가 웹 콘텐츠에서 정보를 액세스, 조작 또는 검색해야 할 때 특히 유용
  • 다양한 LLM을 지원하고 Playwright를 활용하여 더 풍부한 웹 상호작용을 위해 시각적 이해와 HTML 구조 추출을 결합

103. DeepSpeed

  • DeepSpeed는 훈련 및 추론 모두를 위한 분산 딥러닝을 최적화하는 Python 라이브러리
  • 훈련을 위해 Zero Redundancy Optimizer (ZeRO) 및 3D 병렬처리 같은 기술을 통합하여 수천 개의 GPU에서 모델을 효율적으로 확장
  • 추론을 위해 텐서, 파이프라인, 전문가, ZeRO 병렬처리를 커스텀 커널 및 통신 최적화와 결합하여 지연시간 최소화
  • DeepSpeed는 Megatron-Turing NLG (530B) 및 BLOOM (176B)를 포함하여 세계에서 가장 큰 언어 모델 중 일부를 구동

104. Drizzle

  • Drizzle은 경량 TypeScript ORM
  • Prisma ORM과 달리 개발자에게 간단한 SQL 같은 API와 더 전통적인 ORM 스타일 쿼리 인터페이스 모두 제공
  • 기존 데이터베이스에서 스키마 추출도 지원하여 데이터베이스 우선 및 코드 우선 접근법 모두 가능
  • Drizzle은 서버리스 환경을 염두에 두고 설계되었으며 작은 번들 크기를 가지고 prepared statements 지원

105. Java post-quantum cryptography

  • 양자 컴퓨터는 계속 빠르게 발전하고 있으며 AWS Braket 같은 SaaS 제공이 이제 여러 아키텍처에서 양자 알고리듬에 대한 액세스 제공
  • 3월 이후 Java 24는 Java post-quantum cryptography를 도입하여 ML-KEM 및 ML-DSA 같은 포스트 양자 암호화 알고리듬에 대한 지원 추가
  • .Net 10도 지원 확대
  • 조언은 간단: 이러한 언어로 소프트웨어를 구축하는 경우 시스템을 미래 보장하기 위해 지금 양자 안전 알고리듬 채택 시작

106. kagent

  • Kagent은 Kubernetes 클러스터 내에서 에이전트 AI를 실행하기 위한 오픈소스 프레임워크
  • LLM 기반 에이전트가 Kubernetes 네이티브 API 및 Model Context Protocol (MCP) 통합을 통해 문제 진단, 구성 수정, 가시성 도구와 상호작용 같은 운영 작업을 계획하고 실행할 수 있게 함
  • 목표는 선언적 관리와 자율적 추론을 결합하여 "AgentOps"를 클라우드 네이티브 인프라에 가져오는 것
  • CNCF Sandbox 프로젝트로서 Kagent는 특히 LLM에 운영 관리 기능을 부여하는 위험을 고려할 때 주의해서 도입해야 하며 toxic flow analysis 같은 기술이 이러한 위험을 평가하고 완화할 때 특히 가치 있을 수 있음

107. LangExtract

  • LangExtract는 LLM을 사용하여 사용자 정의 지침에 따라 비구조화 텍스트에서 구조화된 정보를 추출하는 Python 라이브러리
  • 임상 노트 및 보고서 같은 도메인별 자료를 처리하여 각 추출된 데이터 포인트를 소스로 추적 가능하게 유지하면서 핵심 세부 정보를 식별하고 구성
  • 추출된 엔티티는 .jsonl 파일(언어 모델 데이터를 위한 표준 형식)로 내보낼 수 있으며 맥락 검토를 위한 대화형 HTML 인터페이스를 통해 시각화 가능
  • 팀은 도메인 지식 그래프를 채우기 위해 엔티티를 추출하는 LangExtract를 평가했으며 복잡한 문서를 구조화되고 기계 판독 가능한 표현으로 변환하는 데 효과적임을 발견

108. Langflow

  • Langflow는 LLM 워크플로우를 구축하고 시각화하기 위한 오픈소스 로우코드 플랫폼
  • LangChain 위에 구축되어 개발자가 드래그 앤 드롭 인터페이스를 통해 프롬프트, 도구, 벡터 데이터베이스, 메모리 구성 요소를 체인으로 연결할 수 있으면서도 고급 로직을 위한 커스텀 Python 코드 지원
  • 완전한 백엔드 코드를 작성하지 않고 에이전트 애플리케이션 프로토타이핑에 특히 유용
  • 그러나 Langflow는 여전히 상대적으로 새롭고 프로덕션 사용을 위한 몇 가지 거친 부분이 있으며 로우코드 플랫폼에 대한 일반적인 주의가 여기에도 적용

109. LMCache

  • LMCache는 LLM 서빙 인프라를 가속화하는 키-값(KV) 캐시 솔루션
  • LLM 추론 엔진 풀 전체에 걸친 특수 캐싱 레이어 역할을 하며 채팅 기록이나 문서 컬렉션 같이 여러 번 처리될 가능성이 있는 텍스트에 대한 사전 계산된 KV 캐시 항목 저장
  • 이러한 값을 디스크에 유지함으로써 prefill 계산을 GPU에서 오프로드하여 time-to-first-token (TTFT) 줄이고 RAG 파이프라인, 다중 턴 채팅 애플리케이션, 에이전트 시스템 같은 까다로운 워크로드 전체에서 추론 비용 절감
  • vLLM 또는 NVIDIA Dynamo 같은 주요 추론 서버와 LMCache를 통합할 수 있으며 설정에 미치는 영향 평가 가치 있음

110. Mem0

  • Mem0는 AI 에이전트를 위해 설계된 메모리 레이어
  • 순진한 접근법은 종종 전체 채팅 기록을 데이터베이스에 저장하고 향후 대화에서 재사용하여 과도한 토큰 사용으로 이어짐
  • Mem0는 이를 단기 회상과 현저한 사실 및 관계만 추출하고 저장하는 지능형 장기 레이어로 메모리를 분리하는 더 정교한 아키텍처로 대체
  • 아키텍처는 의미론적 유사성을 위한 벡터 저장소와 시간적 및 관계형 데이터를 이해하기 위한 지식 그래프를 결합

111. Open Security Control Assessment Language (OSCAL)

  • Open Security Controls Assessment Language (OSCAL)는 규정 준수 및 위험 관리에서 자동화를 증가시키고 팀이 텍스트 기반 수동 접근법에서 벗어나도록 돕기 위해 설계된 오픈되고 기계 판독 가능한 정보 교환 형식
  • 미국 국립 표준 기술 연구소(NIST)가 주도하며 OSCAL은 SOC 2 및 PCI 같은 산업 프레임워크와 미국의 FedRAMP, 싱가포르의 Cybersecurity Control Catalogue, 호주의 Information Security Manual 같은 정부 프레임워크와 관련된 보안 제어를 표현하기 위한 standard representations in XML, JSON and YAML 제공
  • OSCAL이 아직 공공 부문 외부에서 널리 채택되지 않았고 생태계가 여전히 성숙 중이지만 보안 평가를 간소화하고 스프레드시트 및 체크박스 연습에 대한 의존을 줄이며 compliance-as-codecontinuous compliance 플랫폼에 통합될 때 자동화된 규정 준수를 가능하게 하는 잠재력에 흥분

112. OpenInference

  • OpenInference는 AI 애플리케이션을 관찰하기 위해 설계된 규약 및 플러그인 세트로 OpenTelemetry를 보완
  • 기계 학습 프레임워크 및 라이브러리에 대한 표준화된 계측을 제공하여 개발자가 벡터 저장소 검색이나 API 및 검색 엔진에 대한 외부 도구 호출 같은 주변 컨텍스트와 함께 LLM 호출을 추적하는 데 도움
  • 스팬은 모든 OTEL 호환 수집기로 내보낼 수 있어 기존 원격 측정 파이프라인과의 정렬 보장
  • 이전에 일반적으로 사용되는 LLM 가시성 플랫폼인 Langfuse를 블립했으며 OpenInference SDK는 Langfuse 및 기타 OpenTelemetry 호환 가시성 플랫폼에 트레이스를 기록 가능

113. Valibot

  • Valibot은 TypeScript의 스키마 검증 라이브러리
  • ZodAjv 같은 다른 인기 있는 TypeScript 검증 라이브러리처럼 타입 추론을 제공하지만 모듈식 디자인이 차별화
  • 이 아키텍처는 번들러가 효과적인 트리 쉐이킹 및 코드 분할을 수행하여 실제로 사용되는 검증 함수만 포함할 수 있게 함
  • Valibot은 최적 시나리오에서 Zod에 비해 번들 크기를 최대 95%까지 줄일 수 있어 클라이언트 사이드 검증이나 서버리스 함수 같이 번들 크기가 중요한 환경에서 스키마 검증을 위한 매력적인 선택

114. Vercel AI SDK

  • Vercel AI SDK는 TypeScript 생태계에서 AI 기반 애플리케이션 및 에이전트를 구축하기 위한 오픈소스 풀스택 툴킷
  • 두 가지 주요 구성 요소로 구성: AI SDK Core는 텍스트 생성, 구조화된 객체 생성, 도구 호출을 지원하는 모델 독립적 LLM 호출 표준화
  • AI SDK UI는 assistant-ui 와 유사하게 React, Vue, Next.js, Svelte에서 스트리밍, 상태 관리, 실시간 UI 업데이트로 프론트엔드 개발 단순화
  • 이미 TypeScript 및 Next.js 생태계 내에서 작업하는 팀의 경우 Vercel AI SDK는 풍부한 클라이언트 사이드 경험으로 AI 애플리케이션을 구축하는 빠르고 원활한 방법 제공