GN⁺: Tabby: 자체 호스팅 AI 코딩 어시스턴트
(github.com/TabbyML)-
Tabby 소개
- Tabby는 GitHub Copilot의 대안으로, 자체 호스팅 가능한 AI 코딩 어시스턴트임.
- DBMS나 클라우드 서비스가 필요 없는 독립형 구조를 가짐.
- OpenAPI 인터페이스를 통해 기존 인프라와 쉽게 통합 가능함.
- 소비자급 GPU를 지원함.
-
새로운 기능
- 2024년 12월 6일: Llamafile 배포 통합과 향상된 Answer Engine 사용자 경험이 Tabby v0.21.0에 추가될 예정임.
- 2024년 11월 10일: Answer Engine에서 다양한 백엔드 채팅 모델 간 전환이 Tabby v0.20.0에서 지원됨.
- 2024년 10월 30일: Tabby v0.19.0은 메인 페이지에 공유된 최근 스레드를 추가하여 가시성을 높임.
- 2024년 7월 9일: Codestral 통합 발표.
- 2024년 7월 5일: Tabby v0.13.0은 개발 팀의 내부 데이터를 통합하여 신뢰할 수 있는 답변을 제공하는 Answer Engine을 도입함.
- 2024년 6월 13일: VSCode 1.7은 코딩 경험 전반에 걸쳐 다양한 채팅 경험을 제공함.
- 2024년 6월 10일: Tabby의 향상된 코드 컨텍스트 이해에 대한 블로그 게시물 발표.
- 2024년 6월 6일: Tabby v0.12.0은 Gitlab SSO, 자체 호스팅 GitHub/GitLab 등과의 원활한 통합을 제공함.
- 2024년 5월 22일: Tabby VSCode 1.6은 인라인 완성에서 여러 선택지를 제공하고 자동 생성된 커밋 메시지를 지원함.
- 2024년 5월 11일: v0.11.0은 GitHub 및 GitLab 통합, 활동 페이지, Ask Tabby 기능을 포함한 주요 엔터프라이즈 업그레이드를 제공함.
- 2024년 4월 22일: v0.10.0은 팀별 분석을 제공하는 최신 보고서 탭을 도입함.
- 2024년 4월 19일: Tabby는 코드 완성을 위해 로컬 관련 스니펫을 통합함.
- 2024년 4월 17일: CodeGemma 및 CodeQwen 모델 시리즈가 공식 레지스트리에 추가됨.
- 2024년 3월 20일: v0.9은 전체 기능의 관리자 UI를 강조함.
- 2023년 12월 23일: SkyPilot의 SkyServe를 통해 Tabby를 클라우드에 원활하게 배포 가능함.
- 2023년 12월 15일: v0.7.0은 팀 관리 및 보안 액세스를 제공함.
- 2023년 10월 15일: RAG 기반 코드 완성이 v0.3.0에서 활성화됨.
- 2023년 11월 27일: v0.6.0 출시.
- 2023년 11월 9일: v0.5.5는 UI 재설계 및 성능 개선을 포함함.
- 2023년 10월 24일: VSCode/Vim/IntelliJ의 Tabby IDE 플러그인에 대한 주요 업데이트.
- 2023년 10월 4일: Tabby가 지원하는 최신 모델을 모델 디렉토리에서 확인 가능함.
- 2023년 9월 18일: Apple의 M1/M2 Metal 추론 지원이 v0.1.1에 추가됨.
- 2023년 8월 31일: Tabby의 첫 번째 안정 버전 v0.0.1 출시.
- 2023년 8월 28일: CodeLlama 7B에 대한 실험적 지원.
- 2023년 8월 24일: Tabby가 JetBrains Marketplace에 등록됨.
-
시작하기
- 문서에서 설치, IDE/에디터 확장, 구성 방법을 확인 가능함.
-
커뮤니티
- Twitter/X, LinkedIn, 뉴스레터를 통해 TabbyML과 소통 가능함.
Hacker News 의견
-
한 사용자는 좋은 제품일 수 있지만 인터뷰 과정이 끔찍했다고 언급함. 여러 차례 인터뷰를 진행했지만, 마지막 인터뷰 이후 아무런 설명 없이 연락이 끊겼다고 함. 블로그 포스트 작성 후 몇 달 동안 연락이 없었고, 지속적으로 문의한 후에야 답변을 받았다고 함. 모든 인터뷰가 과제 형태였고, 총 10시간 이상을 투자했다고 함.
-
GitHub Copilot의 대안으로 주장되는 것들이 VS2022에서 작동하지 않는다고 언급함. 자신은 VS2022에서 사용할 수 있는 자체 호스팅 AI 어시스턴트를 원한다고 함. VS2022가 플러그인을 지원하는데 왜 대안이 없는지 의문을 제기함.
-
홈페이지의 findMaxElement 함수 완성 데모가 현재 또는 미래의 예시라고 언급함. 제안된 6줄의 Python 코드가 "return max(arr)"로 대체될 수 있다고 함. 제안된 코드는 초급 수준이라고 평가함. 자동완성 기능을 맹목적으로 사용하는 사람들이 기술 수준에서 정체될 것을 우려함. 스토리 포인트를 얻을 수는 있지만, 실제로 기술이 향상되었는지 의문을 제기함.
-
Tabby 프로젝트가 HN 첫 페이지에 오른 것을 상상도 못했다고 언급함. Tabby는 출시 이후 상당한 발전을 이루었으며, 코드 완성과 코드베이스 채팅을 특징으로 하는 포괄적인 AI 개발자 플랫폼이 되었음. Tabby의 사용자는 자체 서비스 온보딩 경험을 제공하는 유일한 플랫폼으로 Tabby를 발견했다고 함. 성능도 시장의 다른 옵션과 견줄 만하다고 함. 궁금하다면 시도해 보기를 권장함.
-
로컬 AI에 익숙하지 않은 사용자가 Tabby를 시도하고 싶다고 언급함. "run tabby in 1 minute"이 chatgpt의 무료 4o-mini와 비교해 어떤지 궁금해 함. 중간 사양의 MacBook Pro에서 Docker 명령을 실행하여 빠르고 유능한 AI를 사용할 수 있는지 질문함. M1/M2의 컴퓨팅 파워가 제한적이며 개인 사용에만 적합할 것이라고 언급함. 팀을 위한 공유 인스턴스가 필요하다면 CUDA 또는 ROCm과 함께 Docker 호스팅을 고려할 것을 권장함.
-
Community Edition에서는 IDE/Extensions 텔레메트리를 끌 수 없다고 언급함. 이 텔레메트리 데이터에 무엇이 포함되어 있는지 궁금해 함.
-
모든 예제가 라이브러리에서 찾을 수 있는 코드라고 언급함. 일부 코드는 품질이 의심된다고 함. LLMs가 코드베이스의 스팸 봇이 될 수 있다고 우려함.
-
대기업에 데이터를 보내지 않고 TOS를 신뢰할 수 있는 아이디어가 좋다고 언급함. 코딩 어시스턴트의 효과는 컨텍스트 길이에 비례하며, 컴퓨터에서 실행할 수 있는 오픈 모델은 보통 더 작다고 함. 더 복잡한 코드베이스에서의 유용성을 정량화한 자료를 보고 싶다고 함.
-
직장에서 자체 호스팅 AI 솔루션을 조사 중이라고 언급함. 이 회사가 어떻게 수익을 창출하는지 궁금해 함. 무료/커뮤니티/오픈소스 옵션이 있으며, "최대 5명의 사용자"가 어떻게 모니터링되는지 질문함. 5명 이상의 사용자가 있을 경우 어떻게 되는지 궁금해 함.
-
Tabby는 단일 GPU 사용만 지원한다고 언급함. 여러 GPU를 사용하려면 여러 Tabby 인스턴스를 시작하고 CUDA_VISIBLE_DEVICES 또는 HIP_VISIBLE_DEVICES를 설정해야 한다고 함. NVLink로 연결된 두 개의 GPU를 사용하는 것이 지원되지 않는지, 아니면 NVLink가 두 GPU를 하나로 취급하기 때문에 상황이 다른지 질문함.