모든 AI 어시스턴트 개발 기업은 이제 광고 회사임
(juno-labs.com)- 주요 AI 기업들이 광고 수익에 기반한 비즈니스 모델로 전환하며, 사용자 주변의 모든 시각·청각 정보를 수집하는 하드웨어 중심의 AI 어시스턴트를 개발 중임
- 이러한 항상 켜져 있는(Always-on) AI는 음성 호출어 없이도 사용자의 일상 대화를 인식하고, 장기간의 맥락을 축적해 능동적 도움을 제공하도록 설계됨
- 그러나 이 데이터가 광고 기업의 서버로 전송되는 구조에서는, 개인정보 보호 정책이 바뀌면 언제든 위험이 발생함
- 반면 로컬 온디바이스 추론(edge inference) 구조에서는 데이터가 물리적으로 외부로 나가지 않아, 정책이 아닌 아키텍처 수준의 보안 보장이 가능함
- 가장 유용한 AI가 동시에 가장 사적인 기술이 될 것이므로, 데이터를 외부로 보내지 않는 로컬 기반 AI로의 전환이 필수적임
광고 기반 구조로 변한 AI 어시스턴트 산업
- OpenAI가 ChatGPT에 광고를 도입했으며, 이는 업계 전반의 구조적 변화로 제시됨
- OpenAI는 2025년 Jony Ive의 하드웨어 스타트업 io를 65억 달러에 인수하고, 화면 없는 소형 AI 기기를 개발 중임
- 모든 주요 AI 어시스턴트 기업이 광고 수익으로 운영되고 있으며, 항상 주변을 관찰하는 하드웨어를 제작 중임
- 이러한 두 요소가 충돌할 때, 로컬 온디바이스 추론(local inference) 만이 데이터 남용을 막는 유일한 해법으로 제시됨
항상 켜져 있는 AI의 필연성
- 기존의 음성 어시스턴트는 “Hey Siri”, “OK Google” 같은 호출어(wake word) 이후에만 작동하는 구조였음
- 그러나 실제 생활 대화에서는 호출어를 사용할 여유가 없어, 자연스러운 맥락 인식형 AI가 필요함
- 차세대 어시스턴트는 오디오·비전·존재 감지·웨어러블 등 다양한 센서를 통해 지속적으로 사용자 환경을 인식함
- 따라서 문제는 “항상 켜져 있는 AI가 생길까”가 아니라, 그 데이터를 누가 통제하느냐임
- 현재 그 통제권은 광고 기업이 쥐고 있음
정책은 약속, 아키텍처는 보증
- 기업들은 “데이터 암호화”, “익명화”, “광고와 무관” 등을 내세우지만, 클라우드 처리 구조에서는 완전한 신뢰가 불가능함
- 사용자는 기업의 현재·미래 정책, 내부 직원, 외부 벤더, 정부 요청, 미공개 광고 파트너까지 모두 신뢰해야 함
- OpenAI는 “광고주에게 데이터를 판매하지 않는다”고 명시했지만, Google이 Gmail을 13년간 광고 타깃팅에 활용한 전례가 있음
- 정책은 바뀔 수 있지만, 아키텍처는 바뀌지 않음
- 로컬 처리 구조에서는 데이터가 물리적으로 외부로 나갈 수 없음
- API 호출, 원격 텔레메트리, 익명화된 사용 데이터 전송이 불가능함
- 이메일보다 훨씬 민감한 가정 내 오디오·비디오 스트림은 개인의 사생활 전체를 포함함
- Amazon의 사례처럼, 로컬 음성 처리 제거, 광고 연계 계획, Ring의 법집행기관 접근 허용 등은 중앙화 구조의 위험을 보여줌
엣지 추론 기술의 성숙
- 과거에는 “로컬 모델은 성능이 부족하다”는 반론이 있었으나, 현재는 충분한 수준에 도달함
- 실시간 음성 인식, 의미 기억, 대화 추론, 음성 합성 등 완전한 AI 파이프라인을 가정 내 장치에서 실행 가능
- 팬 소음 없이, 1회 하드웨어 구매로, 데이터 외부 전송 없이 동작
- 모델 압축·오픈소스 추론 엔진·효율적 실리콘의 발전으로 가능해졌으며, 매년 성능 대비 전력 효율이 향상 중임
- 실제 테스트 가정에서도 문제는 맥락 이해의 어려움이지, 모델 크기나 성능 부족이 아님
- 따라서 하드웨어·소프트웨어 판매 중심의 비즈니스 모델이 필요하며,
- 제조사가 물리적으로 데이터 접근이 불가능한 구조를 설계해야 함
로컬 AI의 필요성과 결론
- 가장 유용한 AI는 가장 사적인 정보를 다루는 기술이 될 것임
- 이를 안전하게 유지하는 유일한 방법은 데이터를 외부로 전송할 수 없는 구조적 설계임
- 정책, 약속, 설정 변경으로는 보호가 불가능하며, 아키텍처 수준의 차단이 필요함
- “Choose local. Choose edge.”라는 문구로, 데이터를 외부로 보내지 않는 AI 구축을 촉구함
Hacker News 의견들
-
이 회사가 내세우는 제품이 항상 켜져 있고, 항상 듣는 AI 기기라는 점에서 이 홍보 문구가 웃기게 느껴짐
로컬 하드웨어에서만 작동한다고 해도, 우리 삶의 모든 순간이 녹음되고 분석될 필요는 없음
가족의 사적인 대화나 미성년자의 순간까지 저장된다면 괜찮은가 하는 의문이 듦
손님들의 동의는 받았는지, 도난이나 정부의 영장, 혹은 인수합병 시 프라이버시 보장이 유지될 수 있을지 걱정됨- 법적으로 정보가 존재하는 한 접근 가능하다는 게 근본적인 문제임
법원이 명령하면 어떤 형태로든 정보는 넘겨질 수밖에 없음
진정한 프라이버시를 지키려면 아예 정보가 존재하지 않아야 함
개인의 뇌 속 정보처럼 법적으로 보호받는 방향으로 입법이 되었으면 좋겠지만, 현실은 반대로 가는 중임 - 나는 이런 기기가 인간의 기억 보조 장치처럼 작동할 수 있다면 긍정적으로 봄
단, 내 허락 없이 정보가 외부로 나가거나, 물리적으로 쉽게 추출되거나, 나를 사칭해 접근할 수 있다면 절대 안 됨
이런 조건을 충족한다면 타인의 프라이버시도 침해하지 않을 것이라 생각함 - 이 제품의 마케팅이 이상하게 느껴짐
프라이버시를 중시하는 사람들이 타깃인데, 그들이 바로 이런 문제를 가장 먼저 지적할 사람들이기 때문임
결국 프라이버시를 신경 쓰지 않는 사람들은 그냥 Google 같은 걸 쓸 것임 - 실제로 이런 장치는 모든 대화를 저장하는 게 아니라, ASR(자동 음성 인식) 으로 처리 후 필요한 명령만 실행하는 구조일 가능성이 큼
나도 로컬 전용 AI 기기를 만들고 싶었는데 귀찮아서 미뤄둠
하지만 이런 기기가 신경다양성(neurodiverse) 사람들에게는 삶을 바꿀 만큼 유용할 수 있다고 생각함 - 사실 제품 설명 어디에도 대화를 저장한다고 명시되어 있지 않음
실시간으로 처리 후 사용자의 목표 달성에 도움이 되는 행동만 취하는 구조로 보임
- 법적으로 정보가 존재하는 한 접근 가능하다는 게 근본적인 문제임
-
대형 AI 기업들이 광고 수익 중심으로 움직인다는 점에는 동의함
집 안에 상시 존재하는 AI는 프라이버시 문제를 피하기 어려움
Black Mirror의 The Entire History of You나 Ted Chiang의 The Truth of Fact, the Truth of Feeling처럼, 결국 사적 공간도 감시로 채워질 것 같음
이런 흐름 속에서 기술을 거부하는 사람들은 점점 사회적 주변부로 밀려날 것 같음 -
“항상 켜진 미래는 피할 수 없다”는 말에 동의하지 않음
오픈소스를 쓰고, 데이터를 채굴하지 않는 서비스를 유료로 이용하며, 윤리적인 스타트업을 지원하면 됨
Android를 대체할 Mobile Linux가 필요하다고 생각함
기업이 아닌 개인이 기기와 소프트웨어를 완전히 통제해야 함
무료 서비스의 편리함에 속지 말고, 돈으로 투표해야 함- 루팅된 Android처럼 완전한 통제가 가능하더라도, 일반 사용자는 은행 앱 같은 필수 앱이 작동하지 않아 불편함
- 이미 모바일 리눅스는 존재하지만, 지원 기기가 적고 성능이 떨어짐
사람들은 결국 현상 유지를 선택함
-
“컨텍스트 인식”이라는 말은 결국 감시의 다른 표현임
사람들은 자신이 작은 Big Brother를 주머니에 넣고 다니는 걸 점점 당연하게 받아들이게 될 것임- 사실 이미 모두가 감시에 대해 이야기하고 있음
하지만 대부분은 그냥 체념하고, 개인 단위의 작은 해결책으로 만족함
나도 프라이버시 입법에 참여했지만, 대중의 무관심으로 아무 일도 일어나지 않았음 - 이미 마케팅 회사들이 막대한 사용자 데이터에 접근하고 있음
LLM 자동화가 없어도 감시는 현실임
- 사실 이미 모두가 감시에 대해 이야기하고 있음
-
로컬에서 작동한다고 해도, 항상 듣는 비서는 여전히 프라이버시 침해임
친구들이 방문했을 때 자신들의 대화가 녹음될 수 있다는 사실을 불쾌하게 느낄 것임
완벽한 화자 분리(speaker diarization) 가 없다면, 이런 시스템은 결코 안심할 수 없음-
Juno Labs의 기술 블로그에 따르면, 현재 가족 단위 메모리 구조를 실험 중임
모든 가족 구성원이 같은 메모리 풀을 공유하는데, 이는 여전히 해결되지 않은 프라이버시 문제임
향후 화자 식별 기반 STT 모델을 통해 개인별 메모리 태깅을 시도할 예정임 - 데이터를 사람이 읽을 수 없게 암호화된 형태로 처리하는 방식이 가능하지 않을까 생각함
-
Juno Labs의 기술 블로그에 따르면, 현재 가족 단위 메모리 구조를 실험 중임
-
제품이 올해 말 출시 예정이라지만, 실물 사진조차 없음
웹사이트 디자인도 허술하고, 자금력도 부족해 보임
결국 이런 기기가 해커들에게 프라이버시 역광고기로 악용될까 걱정됨- 첫 버전은 3D 프린팅과 소량 PCB 제작으로 프로토타입을 만든다고 함
프로토타입 제작 과정에서 실제 사진을 공개했음 - 중국 외 지역에서 생산하고 디자인을 마무리 중이라면, 첫 출시는 지연되거나 알파 버전일 가능성이 큼
- 결국 vaporslop(증기+느낌만 있는 제품) 이 될 것 같음
- 첫 버전은 3D 프린팅과 소량 PCB 제작으로 프로토타입을 만든다고 함
-
광고가 노골적으로 들어가는 것보다, 모델 내부의 암묵적 추천 편향이 더 위험함
ChatGPT, Claude, Perplexity에 같은 질문을 던져도 상위 5개 추천의 일치율이 40% 정도에 불과함
Google 검색 순위와의 상관관계도 거의 없음
결국 어떤 제품을 추천받느냐는 모델의 불투명한 내부 결정에 달려 있음- “LLM마다 추천이 다르다”는 건 결국 “사람마다 의견이 다르다”는 것과 같지 않냐는 반응임
-
나는 항상 켜진 AI 비서의 매력을 이해하지 못함
프라이버시를 떠나, 이런 기기가 내 삶의 주도권을 약화시킬 것 같음
필요할 때만 작동하는 온디맨드형 도우미라면 좋겠지만, 과도한 자동화는 오히려 인간의 사고를 위축시킬 수 있음- 결국 사람들은 인간 하인 없는 Downton Abbey 같은 삶을 원한다는 농담이 나옴
- 영화 WALL·E처럼, 인간은 결국 편리함 쪽으로 기울게 되는 존재임
- 서구 사회의 외로움이 이런 제품의 감정적 수요를 만든다고 봄
“친구 같은 AI”로 포장된 감시 드론의 바다가 될 수 있음 - AI는 놀라운 기술이지만, 요즘은 “모든 것에 AI를 넣자”는 식의 문제 없는 솔루션 찾기가 많음
- 결국 경쟁과 소유의 논리가 이런 흐름을 강화함
함께 나아가는 대신, 각자 치즈를 차지하려는 쳇바퀴 경쟁임
-
“계란 있냐고 물었더니 이웃이 계란을 들고 나타나는” 식의 AI 상호작용 풍자 시나리오가 흥미로움
대화 데이터를 학습한 AI가 점점 인간의 말을 완성해버리고, 결국 침묵 속 내레이션 모드로 전환되는 장면이 인상적임- 이 이야기를 단편소설로 써보라는 반응이 나옴
- “Apple이 그 미세표정 데이터를 20억 달러에 샀다”는 농담도 이어짐
- “유통기한 지난 보드카”라는 표현이 엔쉬티피케이션(enshittification) 의 상징처럼 느껴짐
-
기사에서 Anthropic을 언급하지 않은 건 아쉬움
현재 가장 뛰어난 프로그래밍형 에이전트를 만들고 있으며, OpenClaw 어시스턴트의 핵심이었음- Mistral도 비록 아직 성과는 적지만, AI 어시스턴트를 적극적으로 개발 중임
- 우리는 하드웨어 기반 AI 어시스턴트에 초점을 맞췄음
항상 듣는 스마트 스피커는 의도적으로 사용하는 OpenClaw보다 프라이버시 위험이 훨씬 큼