SlopStop: Kagi 검색의 커뮤니티 기반 AI 생성물 탐지 시스템
(blog.kagi.com)- AI 생성 스팸과 콘텐츠 농장으로 오염된 웹 환경을 정화하기 위해 Kagi Search가 커뮤니티 참여형 탐지 시스템 ‘SlopStop’ 을 도입
- SlopStop은 검색 결과 내 AI 생성 텍스트·이미지·영상의 실시간 ‘AI slop 점수’ 를 표시하고, 사용자가 직접 저품질 콘텐츠를 신고할 수 있는 구조
- 도메인 단위의 자동 하향 조정과 AI 생성 미디어 필터링 기능을 통해 신뢰도 높은 정보 노출 강화
- SlopStop은 ‘Small Web’ 프로젝트와 연계되어, 인간 중심의 창작자와 진정성 있는 콘텐츠를 우선 노출
- Kagi는 이를 통해 세계 최대 규모의 AI slop 데이터셋 구축을 목표로 하며, 향후 AI 환각·허위정보 방어 기술에 활용 예정
AI Slop의 정의와 Kagi의 대응
-
AI slop은 검색 순위 조작이나 주목도 확보를 목적으로 생성된 기만적이거나 저가치의 AI 콘텐츠를 의미
- 예시로 가짜 리뷰, 허위 전문성, 잘못된 정보, 수익 중심의 콘텐츠 농장 등이 포함
- Kagi는 AI 자체를 배척하지 않지만, 인간의 통찰과 연결을 대체하는 형태의 AI 콘텐츠는 해롭다고 명시
- Kagi의 철학은 “인간이 통제권을 갖는 검색 경험” 으로, 광고·트래커 중심의 저품질 페이지를 이미 하향 조정해 왔음
- SlopStop은 기존 이미지 필터를 확장해 영상·기사·도메인 등 전 범위의 AI 생성물을 탐지
SlopStop의 작동 방식
- 검색 결과에 AI slop 점수 표시 기능이 추가되어, 사용자가 콘텐츠의 신뢰도를 즉시 확인 가능
- 사용자는 웹·이미지·영상 결과에서 ‘AI 생성물로 신고’ 기능을 통해 저품질 콘텐츠를 제보 가능
- Kagi는 자체 신호로 이를 검증 후, AI 콘텐츠 비중이 높은 도메인을 자동 하향 조정
- 혼합 도메인의 경우, 개별 페이지에만 AI 생성 표시를 부여
- AI 생성 이미지·영상은 확인 즉시 라벨링 및 자동 하향 조정되며, 사용자는 AI 미디어 완전 차단 필터를 선택 가능
- CEO Vlad는 “AI slop은 인간 중심 인터넷의 실존적 위협이며, SlopStop은 이를 제거하기 위한 첫 단계”라고 언급
SlopStop과 Small Web의 결합
- AI 발전 속도는 빠르지만, SlopStop과 Small Web은 함께 인간 중심의 웹 생태계 복원을 목표로 함
- Small Web은 검증된 인간 창작자 화이트리스트를 구축해, 진정성 있는 콘텐츠를 우선 노출
- SlopStop이 AI 콘텐츠를 걸러낼수록, 창의적이고 인간적인 콘텐츠의 가시성이 높아짐
- 두 시스템은 상업화·인위적 오염으로부터 인터넷을 보호하는 이중 방어체계로 작동
AI Slop 데이터셋 구축과 활용
- SlopStop은 Kagi 생태계 전반의 신뢰성 강화 단계로, 커뮤니티 제보와 내부 탐지 기술을 결합해 세계 최대 AI slop 도메인 데이터셋 구축 목표
- 이 데이터셋은 AI 환각·허위 주장·오정보 방지용 탐지 기술 개발에 활용 예정
- Kagi는 NewsGuard의 조사 결과를 인용해, 다른 챗봇의 30~41%가 허위 응답을 생성한다고 언급
- 데이터베이스는 향후 공개 예정이며, 관심 사용자는 등록을 통해 업데이트를 받을 수 있음
사용자 참여와 품질 보호
- Kagi는 크라우드소싱 기반의 SlopStop 운영을 통해 자동화된 최종 솔루션 개발을 추진
- 사용자는 검색 결과 옆의 방패 아이콘 클릭 → ‘AI 생성물로 신고’ 선택으로 참여 가능
- 모든 제보는 Kagi 검토팀이 확인 후 반영, 검색 품질 개선에 기여
- SlopStop 관련 기술 문서와 포럼을 통해 작동 방식과 피드백 채널을 제공
- Kagi는 “모든 사용자의 참여가 더 신뢰할 수 있는 검색 경험을 만든다”고 강조
Hacker News 의견
- 정말 흥미로운 소식임. HN도 이런 기능을 참고해서 비슷한 플래그를 추가했으면 좋겠음
- @freediver에게 데이터베이스 접근을 요청했음. 곧 hcker.news에 통합될 예정임
Kagi의 커뮤니티 중심 접근이 마음에 듦. 공개된 Small Web 리스트는 정말 유용함.
HN에서 smallweb 필터를 적용하면 메인 페이지가 한결 신선해짐 - 동의함
- @freediver에게 데이터베이스 접근을 요청했음. 곧 hcker.news에 통합될 예정임
- HN에도 이런 게 필요함. 고급 스팸메일 같은 콘텐츠로부터 안전한 피난처가 있었으면 좋겠음
- 해결책은 간단함. 모든 댓글에 대해 인간 인증을 요구하면 됨. 예를 들어, 댓글마다 피 한 방울씩 제출하는 식으로
- 문서에서 이미지, 비디오, 그리고 “웹페이지” 슬롭을 구분하던데, 웹페이지 슬롭만 따로 공격적으로 필터링할 수 있는 방법이 있을지 궁금함
종종 통찰력 있는 글인데도 AI가 만든 헤더 이미지를 붙이는 경우가 있음. 본문이 진짜라면 그런 글은 걸러내고 싶지 않음. 문서의 구분이 이런 세밀한 필터링을 가능하게 할지 궁금함 - 내가 가진 이론을 연구해줄 똑똑한 사람이 있었으면 함. 인간이 쓴 콘텐츠와 LLM이 쓴 콘텐츠의 엔트로피 차이를 학습시키는 게 탐지의 핵심일 수 있음
예를 들어 “Will Smith가 스파게티 먹는 테스트”처럼, 진짜 장면과 생성된 장면의 엔트로피를 비교하면 차이가 명확할 것 같음. 결국 “진짜처럼 보인다”는 건 우리가 기대하는 엔트로피 수준과 맞는다는 뜻임- AI 슬롭이 AI 슬롭을 해결할 수 있다고는 생각하지 않음. 이미 광고·주의 경제가 슬롭화되어 있었고, AI가 그걸 더 드러냈을 뿐임.
AI가 엔트로피를 인위적으로 높이는 건 쉬움. 결국 정보 전쟁이 벌어지고, 사람들은 그 피해자가 될 것임 - 사실 그게 “AI 탐지기”의 기본 원리임. 인간 vs LLM 생성 콘텐츠를 분류하도록 학습된 모델인데, 다들 알다시피 정확도가 형편없음
- 그런 시도는 이미 존재함. 이미지에서는 확산 모델의 아티팩트 덕분에 통하지만, 텍스트에서는 잘 안 됨.
텍스트는 정보 밀도가 너무 높고, GPT류 모델은 오히려 네가 말한 엔트로피를 최소화하도록 학습됨 - 실제 사진과 AI 생성 사진 구분에는 통할 수 있지만, 텍스트에서는 엔트로피가 그렇게 중요하지 않다고 봄.
게다가 AI도 얼마든지 그 탐지를 속이도록 학습될 수 있음 - “Will Smith 스파게티 테스트”를 농담인 줄 알았는데, 검색해보니 진짜 있었음. 놀라움
- AI 슬롭이 AI 슬롭을 해결할 수 있다고는 생각하지 않음. 이미 광고·주의 경제가 슬롭화되어 있었고, AI가 그걸 더 드러냈을 뿐임.
- 인터넷이 죽은 건 아니지만, 이상한 냄새가 나기 시작했음
- 1년째 Kagi 유료 사용자임. 지금까지 쓴 돈 중 가장 가치 있는 소비였음.
최근에 Google 검색을 해봤는데, 정말 끔찍했음.
나는 조용한 인터넷을 원함 — 질문하면 답하고, 의도나 광고 없이, 진심 어린 답변만 있는 공간을 - 확장 가능한 접근은 결국 AI에게 AI를 식별하게 하는 것 아닐까 생각함. 물론 인간 검토는 필수겠지만
대부분의 사람은 프롬프트에서 “기본 음성”을 벗어난 AI 텍스트를 구분 못 할 것 같음- 다음 세대 모델은 AI로 분류된 샘플을 학습 데이터에서 제외하며 진화할 것임.
이런 순환은 계속될 것이고, 이는 GAN(Generative Adversarial Network) 구조와 유사함 - AI에게 AI를 잡게 하는 건 “좋은 AI가 나쁜 AI를 이긴다”는 식의 정렬 문제 환상과 비슷함. 가능성은 있지만 너무 많은 가정에 의존함
- AI가 AI를 탐지할 수 있었다면 이미 해결됐을 문제임. 신뢰성 부족이 핵심임
- 프롬프트를 신중히 다루면 탐지가 어려운 텍스트를 만들 수 있음.
하지만 실제 웹에는 여전히 AI 슬롭이 넘쳐남.
나는 사실 여부가 중요한 정보를 찾는 경우가 많아서, AI 탐지 여부보다 출처의 신뢰성이 더 중요함.
결국 누가 자신의 이름이나 평판을 걸고 썼는지가 핵심임
- 다음 세대 모델은 AI로 분류된 샘플을 학습 데이터에서 제외하며 진화할 것임.
- 지금 세상은 두 개의 우주로 나뉜 것 같음. 하나는 생성 콘텐츠를 강제로 밀어넣는 우주, 다른 하나는 그것을 철저히 거부하는 우주임
일부 CEO들이 왜 이렇게 고집을 부리는지 모르겠음. 사람들은 인공 콘텐츠를 싫어하는데, 그들은 여전히 집착함- YouTube에는 AI 생성 콘텐츠를 즐기는 거대한 시청자층이 존재함.
예를 들어 이 영상, 이 영상 모두 GPT가 쓴 스크립트, AI 일러스트, AI 음성으로 만들어졌음.
Reddit에서도 GPT가 쓴 글이 상위에 오르고, 사람들은 “아름다운 비유”라며 칭찬함.
결국 많은 사람들은 AI 콘텐츠를 알게 모르게 즐기고 있음 - CEO들의 고집은 대부분 이사회와 월가의 압력 때문임. 실제로 LLM을 써본 적도 없는 사람들이 시장 신호에 반응하는 것뿐임
- 완전한 매몰비용의 함정과 성장 강박임. 논리보다는 유행과 투자자의 조급함이 지배함
- Kagi도 완전히 LLM을 배제한 건 아님. 실제로 뉴스 요약에 LLM을 사용함
관련 이슈에서도 볼 수 있듯, 경제적 효율성 때문에 완전 배제는 어려움 - 창작자가 AI 사용을 공개해야 한다면, 나는 그걸 필터링할 권리가 있어야 함.
요즘은 진짜 콘텐츠를 찾기가 너무 힘듦.
문제는 AI 콘텐츠 자체보다, 성의 있는 창작자들이 묻히는 환경임
- YouTube에는 AI 생성 콘텐츠를 즐기는 거대한 시청자층이 존재함.
- 지금 상황은 마치 AI가 스스로와 체스를 두는 경기 같음.
탐지는 더 정교해지고, AI는 더 교묘해짐. 끝없는 검출 대 회피의 결투가 이어지는 중임 - “슬롭 전쟁이 시작되었음”
검색 결과 속 AI 슬롭의 범람을 막으려는 모든 시도를 응원함.
예전의 SEO 스팸이 다시 돌아온 느낌임, 단지 포장이 달라졌을 뿐임- 이번엔 훨씬 심각함. 예전 SEO 스팸은 사람이 보면 금방 구분됐지만, 지금은 겉보기엔 완벽한 쓰레기가 넘쳐남.
다른 검색엔진들이 이런 걸 좋아하는 이유는, 스스로 콘텐츠를 만들지 않아도 입구 역할을 강화할 수 있기 때문임 - 아이러니하게도 AI 콘텐츠를 가장 싫어하는 집단은 SEO 업계임.
AI 요약이 그들의 클릭 유도형 콘텐츠를 대체하고 있기 때문임.
어쩌면 이런 필터링 운동의 배후에는 그들이 있을지도 모름
- 이번엔 훨씬 심각함. 예전 SEO 스팸은 사람이 보면 금방 구분됐지만, 지금은 겉보기엔 완벽한 쓰레기가 넘쳐남.