2P by GN⁺ 14일전 | ★ favorite | 댓글 1개
  • OSINT(공개 출처 정보 분석)은 본래 ‘생각하는 게임’이었음
  • 최근에는 점점 더 AI 도구에 의존하는 ‘신뢰의 게임’으로 변해가고 있음
  • 문서 요약, 번역, 보고서 작성에서 시작해 AI가 주도하는 조사로 바뀌며 비판적 사고가 줄어듦
  • “더 똑똑하게 일하고 있다”는 착각 속에 실제 사고 과정이 무너지고 있음

AI의 확산이 가져온 변화

  • 글쓴이 역시 ChatGPT, Copilot, Claude, Gemini 등을 매일 사용 중
  • 문제는 분석가들이 어려운 과정을 건너뛰고 AI에 사고를 맡기기 시작했다는 점
  • OSINT는 속도만 중요한 게 아니라 판단력이 핵심인데, 판단력은 모델이 줄 수 없음
  • 비판적 습관을 지키지 않으면 조사관이 아닌 자동화 운영자가 되어버림

모두가 읽어야 할 연구 결과

  • 2025년 초 Carnegie Mellon과 Microsoft Research 팀이 319명의 지식 근로자를 대상으로 한 연구 발표
  • 결과: AI에 대한 신뢰가 높을수록 비판적 사고는 낮아지는 경향
  • 반대로 스스로에 대한 자신감이 높은 사람일수록 더 많이 질문하고 검증함
  • AI에 대한 신뢰는 곧 자기 사고의 포기와 연결됨

실제 업무에서 나타난 현상

  • 가설을 세우기보다는 AI에게 아이디어를 묻는 방식으로 변화
  • 출처를 검증하기보다는 AI가 이미 했을 거라 생각
  • 다양한 관점을 평가하기보다는 AI 요약본을 편집하고 끝냄
  • 전문가들도 이런 방식에 익숙해지며 사고를 멈추는 경우가 많아짐

OSINT에서의 AI 오용 사례

이미지 검증 실패

  • 시위 사진을 Gemini에 업로드하고 “이 사진은 어디인가?”라고 묻자 ‘파리’라고 답변
  • 표지판, 번호판, 건축 양식을 보면 벨기에가 명확하지만 AI를 믿고 넘어가 오판

인물 프로파일 왜곡

  • Claude로 인물의 온라인 활동을 요약하면 “활동가, 기술 종사자, 무해한 인물”로 표현
  • 극우 포럼 활동 내역은 누락됨 → 검증 없이 이벤트 발표자로 선정되는 위험

허위 정보 캠페인 분석 실패

  • Telegram 메시지를 ChatGPT에 입력하여 요약과 패턴 분석 요청
  • 키워드만 표시되고, 러시아 정보조작 그룹의 언어 패턴은 놓침

OSINT 분석가들이 직면한 위협

  • 위 사례는 모두 매우 현실적인 OSINT 실패 가능성
  • 문제는 악의적이지도, 게으르지도 않은 분석가들이 툴을 너무 신뢰했기 때문
  • AI는 조사 능력을 대체할 수 없음, 무비판적 사용이 OSINT를 위험하게 함

죽어가는 OSINT 전문성 (Tradecraft)

  • 전문성이란 ‘도구 목록’이 아닌, 의심하고 확인하는 사고 습관
  • 이상한 느낌이 들 때 다시 보는 습관, 메타데이터 확인, 언어 불일치 감지 등의 본능
  • AI는 일을 쉬워 보이게 만들고, 사고 과정을 없애버림
  • 편리함 속에 전문성은 사라지고 있음

과거와 현재의 분석가 비교

예전에는:

  • 흐릿한 이미지를 여러 도구로 분석, EXIF 정보 확인, 랜드마크로 역검색
  • 외국어 게시물 수동 번역, 해시태그 추적, 계정 활동 내역 확인
  • 도메인 WHOIS 분석, 서브도메인 추적, 이메일 연결 조사

현재는:

  • 이미지를 AI에 넣고 위치만 확인하고 넘어감
  • 게시물을 AI에 요약하게 하고 바로 사용
  • “이 도메인을 누가 운영하나?”라고 AI에 물어보고 답을 신뢰함

전문성 상실의 결과

  • 문맥적 사고력, 출처 간 교차 확인, 가설 검증, 깊이 있는 탐색 능력 상실
  • AI는 설득력 있는 문장과 자신감으로 착각을 유도함
  • 악의적 세력은 AI의 약점을 악용해 조작된 데이터를 흘려 넣음

분석가의 새로운 역할: AI의 감시자

  • GenAI는 없어지지 않음, 문제는 그것을 ‘조력자’가 아닌 ‘판단 기준’으로 여길 때 발생
  • 분석가는 이제 AI를 테스트하고, 검증하고, 의심하는 역할 수행 필요
  • “답을 찾는 사람”이 아닌 “답을 깨뜨리는 사람”이 되어야 함

분석가 사고방식의 변화

  • 예전에는 단순히 AI에게 질문을 던지고 답을 받는 역할이었다면,
    이제는 AI가 내놓은 답변을 면밀히 심문하고 검증하는 역할로 바뀌어야 함
  • 예전에는 AI가 요약해 준 내용을 그대로 받아들이는 데 그쳤다면,
    이제는 그 요약을 세세히 뜯어보고 어떤 정보가 빠졌고 어떤 해석이 들어갔는지를 분석해야
  • 예전에는 AI가 준 제안을 그대로 쓰거나 따르는 경우가 많았다면,
    이제는 그 제안이 왜 그렇게 나왔는지 분해하고 다시 구성해보는 작업이 필요함
  • 예전에는 AI가 제시한 깔끔하고 단정적인 답을 믿는 경향이 있었다면,
    이제는 그 답이 어디서 왔는지, 어떤 출처를 기반으로 했는지를 더럽고 복잡하더라도 추적해야 함
  • 예전에는 어떤 인물이나 사건에 대한 프로파일을 AI에게 맡겨 작성했다면,
    이제는 그 프로파일 속 내러티브가 실제 맥락과 맞는지를 스스로 검증하는 작업이 중요함
  • 예전에는 AI가 초안만 잘 만들어 주면 그대로 제출했지만,
    이제는 그 초안을 해체하고, 문제점을 찾아내고, 다시 조립하여 진짜 내 것으로 만드는 과정이 필요함

비판적 사고를 되살리는 방법

일부러 ‘마찰’을 추가하기

  • 너무 빠른 결과는 위험
  • AI가 제공한 정보도, 내가 원래 하던 검증 절차를 그대로 실행

전술:

  • “AI가 없었다면 뭘 했을까?” → 그 작업을 실제로 실행
  • AI 출력이 맞는지, 반례를 일부러 찾음
  • 다른 모델에 “정반대의 해석을 해봐”라고 요청

출처 확인 습관 복원

  • GenAI는 OSINT식 인용을 하지 않음
  • 모델이 제공한 이름, 링크, 인용구는 반드시 역추적 필요

전술:

  • AI 결과 vs. 실제 출처를 나란히 비교
  • 요약을 보더라도 원문은 반드시 열어볼 것

AI를 ‘생각 파트너’로 취급

  • AI는 주니어 분석가일 뿐, 감독이 필요함

전술:

  • 내 가설에 반박하도록 요청
  • 나의 조사 노트를 제공하고 빠진 내용 지적 요청
  • 다양한 관점을 시뮬레이션하게 활용

모델 간 비교

  • ChatGPT, Claude, Gemini, Copilot의 출력을 비교
  • 차이점을 신호로 간주하고 원인 탐색

일부러 모델을 ‘깨뜨리기’

  • 의도적으로 모순되거나 애매한 질문을 던짐
  • 오류 발생 패턴 파악 → 인간의 판단력으로 보완

‘어려운 작업’을 계속 수행하기

  • AI는 보조 도구, 핵심 작업은 직접 해야 함

전술:

  • AI를 쓰기 전 직접 지오로케이션 시도
  • AI 요약을 보기 전 직접 요약 작성
  • AI로 프로파일 작성 전, 내가 직접 프로파일링 후 비교

조용한 붕괴와 그에 맞서는 방법

  • 비판적 사고의 붕괴는 갑자기 오지 않음
  • 보고서가 더 빠르고 더 깔끔해질수록 위기일 수 있음
  • 정답처럼 보이는 정보, 확인 없이 믿는 습관이 위험

그러나, 이 모든 건 되돌릴 수 있음

  • AI를 배제할 필요는 없음
  • 대신, AI와 맞서고, 의심하고, 반박해야 함
  • 당신은 ‘도구 사용자’가 아니라 ‘조사자’임

✅ OSINT AI 남용 방지 체크리스트

  • ✅ AI 출력의 원본을 추적했는가?
  • ✅ AI 결과를 수용하기 전에 비-AI 출처를 참고했는가?
  • ✅ 반대 가설이나 다른 모델로 도전했는가?
  • ✅ 두 개 이상의 인간 소스를 통해 교차 확인했는가?
  • ✅ 최소 한 작업을 수동으로 실행했는가?
  • ✅ AI 출력에 암묵적 가정이 있는지 확인했는가?
  • ✅ AI를 진실의 출처가 아니라 사고 파트너로 취급했는가?
  • ✅ 의도적으로 검증 과정을 느리게 만들었는가?
  • ✅ “내가 확인 없이 믿고 있는 건 무엇인가?”라고 자문했는가?
  • ✅ 우리 OSINT 결과물에 AI 사용 여부를 독자에게 명시했는가?
Hacker News 의견

• 참가자들은 게으르지 않았음. 그들은 경험 많은 전문가였음

  • AI가 등장하기 전까지 이들이 훌륭한 비판적 사고자였다는 가정은 과장임
  • 내 경험상, LLM에 사고를 외주하는 사람들은 팟캐스트, 뉴스 기사, Reddit 게시물, Twitter, TikTok 등에도 사고를 외주하던 사람들임
  • LLM은 그들에게 반복할 수 있는 의견을 제공했음

• 많은 사용자가 GenAI 덕분에 자신이 비판적으로 사고하고 있다고 믿는 것이 무서운 부분임

  • TikTok 비디오를 통해 전문가가 된 것처럼 느끼는 것과 큰 차이가 없음
  • 사고를 외주하고 자신이 듣고 싶은 의견을 수집하는 사람들이 이제는 원하는 결론에 더 쉽게 도달할 수 있게 되었음

• 오픈 소스 정보에서 큰 문제는 심층 분석이 아니라 정보의 홍수 속에서 볼 가치가 있는 것을 찾는 것임

  • CIA의 관점에서, 미국 정보 커뮤니티는 OSIRIS라는 생성 AI 시스템을 사용하여 오픈 소스 정보를 분석함
  • CIA의 전 수장은 주로 요약에 사용된다고 말했음

• 가설을 세우는 대신, 사용자들은 AI에게 아이디어를 요청함

  • 출처를 검증하는 대신, AI가 이미 검증했다고 가정함
  • 여러 관점을 평가하는 대신, AI의 요약을 통합하고 편집하여 넘어감
  • 이는 가상의 상황이 아니라 실제로 일어나고 있는 일임

• 글을 쓰거나 분석을 하는 물리적 행위와 순간들이 중요하다고 생각함

  • 흐릿한 이미지를 사진 편집 소프트웨어로 가져가고 조작 도구를 사용하는 것이 문제를 해결하는 데 필수적인 부분임
  • 새로운 제품을 위한 제조 라인의 프로세스 흐름도를 작성 중임
  • 아이디어와 질문은 이러한 작은 공간에서 나오는 것 같음

• AI가 인간을 더 멍청하게 만들어 초인적인 지능을 달성할 수 있는 방법 중 하나임

  • GenAI의 사용이 유용한 도구가 아니라 해가 되는 것처럼 보임
  • 사진을 업로드하고 위치를 묻는 시나리오에서 AI가 잘못된 위치를 제시함

• AI가 학습 속도를 느리게 만든다고 느낌

  • Rust를 배우는 중인데, AI가 시작하는 데 도움을 주지만, 작업 능력을 달성하는 데 시간이 더 걸림
  • AI를 끄고 스스로 고군분투해야 할 것 같음

• 20년 이상 분석가로 일하며 OSINT와 AI를 사용함

  • 대부분의 분석가는 비판적 사고 능력을 가지고 있음
  • OSINT는 법적 절차에 의해 항상 통제되지 않기 때문에 많은 사람들이 OSINT 분석가가 될 수 있음
  • AI의 제안에 굴복하는 압박이 있음

• OSINT와 분석은 방법론이 있는 전문 기술임

  • AI와 함께하는 OSINT는 이전에는 불가능했던 것을 가능하게 함
  • 비판적 사고의 부족은 데이터 검증을 위한 인원이나 과정이 줄어들었기 때문일 수 있음

• OSINT의 기본을 이해하고 싶다면 홈페이지를 방문할 것임

  • 하지만 간단한 chatgpt 쿼리가 더 빠르게 답을 줄 것임

• 이 게시물은 OSINT에 국한되지 않으며, AI가 새로운 도구로 채택되는 곳에 널리 적용될 수 있음