Show GN: ScreenTranslate - 화면 캡처하면 바로 번역되는 온디바이스 macOS 메뉴바앱 (오픈소스)
(github.com/hcmhcs)안녕하세요, 학생 개발자입니다!
요즘 AI 에이전트 쪽에 관심이 생겨서 OpenClaw에 올라온 시스템 지침들을 뜯어보며 공부하고 있었습니다. 에이전트가 LLM의 단순 추론보다 훨씬 좋은 결과를 내는 이유가 뭔지, 어떤 시스템 지침과 구조로 이루어져 있는지가 궁금했거든요.(저의 상황에 맞는 AI 에이전트를 구축해서 생산성을 올리고 싶었습니다 ㅎㅎ) 그런데 vscode에서 코드상 시스템 지침들이 죄다 영어이면서 관련 문서가 죄다 영어다 보니, 번역기 탭 띄워놓고 왔다갔다 복붙하면서 읽으려니까 맥락이 뚝뚝 끊겨서 집중이 안 되더라고요. 이미지나 PDF처럼 텍스트 복사가 안 되는 경우엔 더 답답했고요.
그러다 애용하던 ScreenHint(화면 위에 캡쳐를 고정해두는 앱)를 보면서, "이 UX로 캡처한 영역을 바로 번역해주면 되겠다" 싶었습니다. 학생이라 번역 API에 매번 돈 나가는 것도 부담이었고, 온디바이스로 돌아가는 걸 기본으로 잡았습니다. 마침 클로드 코드(Claude Code) 덕분에 이 아이디어를 빠르게 구현할 수 있었고, 그렇게 만든 첫 오픈소스 프로젝트입니다.
ScreenTranslate — 화면을 캡처하면 OCR → 번역이 바로 되는 macOS 앱입니다. 메뉴바에 상주하면서 단축키로 바로 쓸 수 있습니다.
크게 두 가지 기능이 있습니다:
- 화면 캡처 번역 — 단축키 → 영역 드래그 → OCR로 인식해서 번역 팝업
- 텍스트 번역 — 텍스트 선택 → 단축키 → 바로 번역 (OCR 없이)
무료이고 오픈소스(GPL v3)입니다. 온디바이스로 동작해서 서버로 번역데이터가 일절 나가지 않습니다.
특징:
- Apple Vision OCR + Apple Translation 기반, 인터넷 없이 동작
- DeepL 기본 앱보다 체감 속도가 많이 빠릅니다. 캡처부터 번역 팝업까지 1초 내외
- 클라우드 엔진이 필요하면 DeepL, Google Cloud, Azure를 BYOK(API 키 직접 입력)로 쓸 수 있음
- 번역 히스토리 저장, 자동 클립보드 복사
- 20개 언어 지원
기술 스택:
- macOS 15+ / Swift 6 / SwiftUI / SwiftData
- 내부 흐름: Vision(VNRecognizeTextRequest) → 줄바꿈 전처리 → Translation or API → 팝업
- 외부 의존성 없음. Apple 네이티브 프레임워크만 사용(요구사항: macos 15+ 이상 - 애플실리콘/인텔 모두 가능)
GitHub: https://github.com/hcmhcs/screenTranslate
데모 영상: https://www.youtube.com/watch?v=ItYNAyue7eo
다운로드: GitHub Releases에서 DMG 받거나, 직접 빌드 가능( README.md파일 참고)
처음에 혼자 쓰려고 가볍게 만든 거라 부끄럽지만, 제 생각에는 나름 잘 나오게 된 것 같다는 생각에 프로덕트 헌트에도 처음 런칭을 해보면서 실사용자를 받아보면서 피드백을 받아 업데이트를 진행하는 과정을 거치고 있습니다!
첫 솔로 오픈소스 프로젝트라 부족한 부분이 많을 텐데, 피드백이나 PR 주시면 감사하겠습니다:)