2P by GN⁺ 4일전 | ★ favorite | 댓글 2개
  • MIT 연구에서 ChatGPT와 같은 LLM 사용이 뇌 연결성 약화 및 기억력 감퇴 등 장기적 인지 저하로 이어짐
  • 참여 학생들은 AI에 반복적으로 의존할수록 창의적 통합력과 자율성이 감소함
  • EEG 뇌파 검사로 LLM 그룹에서 주의 및 시각 처리 네트워크 저활성화 현상 확인
  • 검색 엔진 사용자 그룹은 더 강한 집행 기능과 기억 활성화, 시각 처리 역량을 유지함
  • LLM 사용 이후에도 뇌 기능 완전 회복이 어려웠으며, AI 의존은 ‘인지적 부담 전가’ 경향으로 이어짐

MIT 연구 주요 발견: LLM 사용과 인지 저하

MIT에서 수행한 "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" 연구는 반복적으로 ChatGPT 같은 인공지능에 의존할 경우 뇌에 장기적 인지적 손상이 발생함을 밝혀냄
참여 학생들은 AI에 의존하여 에세이를 작성할수록 신경 연결성 약화, 기억력 저하, 작업에 대한 주인의식 상실 현상을 경험함
AI가 생성한 결과물은 외형적으로 높은 평가를 받기도 했지만, 그 과정에서 뇌는 점차 비활성화 상태로 전환되는 경향을 나타냄

뇌 연결성 저하와 인공지능 의존 현상

  • EEG(뇌파) 측정 결과, 인공지능 사용이 늘어날수록 뇌의 연결성(systematic neural connectivity) 이 점진적으로 감소함
    • 뇌만 활용한 그룹: 가장 강력하고 넓은 범위의 연결성 확인
    • 검색 엔진 그룹: 중간 수준의 뇌 활성화
    • LLM 그룹: 모든 뇌파 대역(알파, 베타, 델타, 세타)에서 결집 약화 현상
  • 특히 LLM 그룹의 경우, 주의 집중 및 시각적 처리 네트워크가 현저히 비활성화됨
  • Session 4에서 AI의 도움 없이 글쓰기를 시도할 때, LLM 경험자들은 뇌의 핵심 네트워크 작동 저하를 보임

LLM 사용자들의 기억력 및 학습 경로 왜곡

  • LLM에 의존한 후, 학생들은 자신이 방금 쓴 내용을 잘 기억하지 못하는 현상 경험
  • 뇌의 장기 기억 및 학습 관련 경로에서 명확한 간섭이 관찰됨
  • AI 활용 중 뇌의 정보 통합 및 자기 동기적 접근 방식이 약화됨
  • 참여자들은 결과물에 대한 심리적 거리감, 주인의식 위축을 겪음

인공지능에서 뇌 사용으로의 전환의 한계

  • 4차 세션에서 LLM 사용 후 직접 뇌만 사용한 그룹은 원래 세션(뇌만 사용) 수준까지 뇌 활성화가 회복되지 않는 현상 확인
  • 뇌파, 작업 노력, 자기 인식 등 다양한 지표에서 baseline 이하로 지속되는 경향성 발견

검색 엔진 사용자는 더 건강한 뇌 관여 유지

  • 검색 엔진 사용자 그룹은 집행 기능, 기억력 활성화, 인용문 회상 등 주요 인지 지표에서 높은 수준 지속
  • 뇌파에서 후두엽 및 두정엽 활성화 강화 현상 확인, 이는 시각 처리와 작업적 노력과 밀접 관련

AI 의존이 가져오는 인지적 부담 전가(Cognitive Offloading)

  • 연구팀은 뇌가 LLM에 반복적으로 노출되면 자체적으로 정보 통합 및 기억화 노력의 중단(neural efficiency adaptation) 경향 명확히 확인
  • 이로 인해 수동적 작업 태도, 편집 최소화, 개념 통합 수준 저하 현상으로 이어짐

단기적 효율, 장기적 인지적 부채

  • LLM 그룹은 표면적으로 심사위원에게 일정 수준 점수를 받았으나,
    • 전략적 통합 부족
    • 표현 구조의 다양성 감소
    • 결과물의 짧고 기계적인 특성 등 뚜렷한 한계를 보임
  • 시간이 갈수록 인지 관여, 수행력, 자기 만족도 일관된 저하 경향 지속됨

연구 결론 및 제언

  • 더 많은 인구가 복잡한 작업 수행에 인공지능을 의존할수록, 인간의 본연적 인지 역량과 창의적 능력이 급격히 저하될 위험이 높아짐
  • 인공지능 활용 시 정기적으로 휴식을 취하고 자신의 뇌를 직접 활용하는 시간의 중요성 강조
  • 인공지능은 단순히 인간의 일을 대체하는 수준을 넘어, 인간의 사고 체계와 뇌 기능 자체에 영향을 미치는 존재

저자 소개

  • Nicolas Hulscher, MPH
    • 유행병학자 및 McCullough Foundation의 Foundation Administrator
    • 관련 추가 콘텐츠는 X(구 Twitter)에서 McCullough Foundation 및 저자의 계정 참고 가능

내용을 보면 LLM을 사용한 쪽은 답변을 받아쓰기만 한 것 같네요.
보통은 목적이나 원하는 흐름이 있어 답변을 확인하고 피드백을 반복하며 사용하지 않나요? 그런 경우도 같은지 궁금하네요

Hacker News 의견
  • 대학원 시절 존경하는 박사과정 학생과 대화했던 경험을 공유하고 싶음. 그는 논문을 읽을 때마다 코드를 직접 작성해 구현했음. 나는 몇 달이 걸렸지만 그는 며칠 만에 코드를 완성하곤 했음. 연습을 많이 하면 더 잘할 수 있다고 설명해줬음. 빠르게 코딩할 뿐 아니라, 논문도 점점 더 빨리 분석하고 아이디어를 통합하는 능력이 탁월해졌고, 무엇이 효과적인지 직관도 키워나갔음. 나도 지금은 꽤 시니어라 코드 작업을 거의 안 하지만, 여전히 새로운 코드와 아이디어를 직접 다뤄보며 고생하는 것이 정말 유익하다고 느낌. prompt만 조금 바꾸면 된다고 생각하는 사람들은 진짜 중요한 배움의 기회를 놓치고 있다고 생각함

    • 실제로 지금 당장 눈앞에서 스킬 격차가 생성되고 있다고 생각함. (1) 개념을 깊이 이해하고, 마음속으로 모델을 세운 뒤 어느 수준의 코드라도 스스로 구현할 수 있는 사람들과 (2) 그 과정을 기계에 아웃소싱하다가 천천히 그 능력을 잃어가는 사람들이 생겨나고 있음. 지금은 이 차이가 확연하지 않지만 몇 년만 지나도 분명한 차이가 나타날 것이라 믿음

    • “진짜 프로그래머는 어셈블리를 직접 쓴다”는 논리적 오류에 주의해야 함. 컴파일러가 보편화됐을 때 프로그래머들이 자기 코드의 동작을 이해하지 못하게 된다는 우려가 있었음. 실제로 어느 정도는 맞는 말이나, 대부분의 사람들은 실질적으로 뭔가를 만들어내는 데 별로 문제가 없다고 여김. 사고를 멈추면 당연히 배우는 것도 적어짐. 추상화 레벨을 한 단계 더 올려서 생각할 수 있다면 세부사항은 항상 중요하지 않을 수도 있음. 대학의 한계는 “다음 추상화 레벨”이 아니라, 검증된 지식 전이만을 위한 손수 고른 아이디어들의 연속이라는 점임. 스타트업에서 직접 무언가를 만들거나 더 큰 문제에 도전할 시간을 확보하는 것과는 다름. 물론 모든 박사 과정에 이 방식이 맞는 것은 아님. 세부를 알아야 하는 분야도 있겠지만, 더 전문화된 오늘날에는 오히려 이게 순이익일 수도 있다고 생각함

    • 수학 공부와 비슷하다고 느껴짐. 수학 책을 하루종일 읽고 아이디어를 감상할 수도 있지만, 실제로 정의, 정리, 연습문제의 예제를 풀어보지 않으면 거의 배우는 게 없음

    • 데이터사이언스 분야에는 “공짜 점심은 없다”는 말이 통함. ChatGPT 같은 도구가 점점 보편화되면서, 심지어 박사 이상들도 이러한 도구를 전혀 사용하지 않고 스스로 공부하는 경우에는 점점 더 마법사처럼 보이게 됨. 이미 실력이 부족해 중급 이상 코딩을 못 하거나 직관이 떨어지는 사람들을 보고 있음. 이건 더 이상 임포스터 신드롬이 아니며, AI 없이는 일을 제대로 못하는 현상임. 나는 각 주제마다 먼저 도구 없이 스스로 생각하고 질문을 만들어봄. 그리고 어느 정도 감이 생긴 뒤에 ChatGPT에게 질문함

    • 흥미로움. 그는 정말 펜과 종이로 코드를 직접 썼다는 의미인지 궁금함. 그 방식이 정말 이해하는 데 도움이 되는 것 같음(참고로 나는 직업으로 코딩하지 않음). 역사가도 비슷한데, 물리적 아카이브에 하루종일 몰입하는 분들이 시간이 지나면서 주제에 관해 직관과 통찰력을 쌓게 됨. 반면 구글로 필요한 인용구와 문서를 긁어다 쓰는 경우에는 주제를 단면적으로만 파악할 위험이 높음. 다각적으로 생각하거나 현상 간의 연관을 보지 못하고, 자신의 논지를 지나치게 집착하게 되는 경향도 있음

  • 몇 가지 짚고 넘어갈 점이 있음. (1) 이 논문은 arxiv에 올라온 것으로 아직 출판 전, peer review 전임. 감안하고 볼 필요가 있음. (2) 코호트당 18명 (3) 전체 54명임. N이 적고, MIT 18-22세 학생들이 주로 포함된 것으로 보이므로 재현성이나 일반화 가능성에 과제 있음. 실험 중 뇌파(EEG) 측정도 하고 있는데, 생소하고 불편한 환경임. 또 연구 대상이 LLM, 검색 도구, 혹은 아무 도구 없이 에세이 쓰기니까, 참여자도 뭘 보는지 다 알고 있음. 논문 요약은 에세이 쓰기 과제에서 LLM 사용의 인지적 부담(cognitive cost)을 연구함. 에세이 쓰기는 다양한 인지 과정을 동원하는 복잡한 작업으로 학교나 시험에 활용되는 과제임. 아이디어 조직, 논증 구조화 같이 매크로 수준과 단어선택, 문법·구문 같은 마이크로 수준 작업 모두를 동시에 관리해야 함. 인지적 관여(cognitive engagement)와 인지적 부하(cognitive load) 및 뇌 활성도를 평가하기 위해 EEG를 사용했음. LLM 외에도 고전적 인터넷 검색, 그리고 아무 도구도 없는 상태에서의 뇌활동을 비교했음. 논문 원본

    • 54명 참여자는 18~39세(평균 22.9세, SD=1.69)였고, MIT, Wellesley, Harvard, Tufts, Northeastern 등 5개 대학에서 모집했음. 학부생 35명, 대학원생 14명, 그리고 박사후/연구원/소프트웨어 엔지니어 등 6명임. 표본 크기와 구성은 제한점이고, 후속 연구가 더 크고 다양한 표본으로 진행되어야 함. 이로 인해 “재현에 어려움”까지는 아니라고 생각함

    • 논문이 peer review 전 논문이라 ‘감안해야 한다’라는 주장은 멈춰야 한다고 생각함. peer review도 이상적인 과학적 과정이 아니고, 종종 불필요한 지연이나 의미없는 코멘트가 많고, 대형 퍼블리싱 기업에 공짜 노동 제공일 뿐임. 30편 넘게 출간하며 좋은 평가만큼 나쁜 평가도 많이 받았음. 최소한 오픈피어리뷰와 에디터 간 소통으로 가야 한다고 봄. 과학은 아이디어 시장이 되어야 함. 나머지 비판은 완전히 타당하다고 생각함. 논문 결론도 너무 성급하고 홍보용에 가까움. 개인적으로 지금의 peer review 시스템이 구시대적이라고 생각함

    • 이번 연구는 ChatGPT가 사용자 에세이쓰기 능력에 미치는 영향에 대한 실험임. 쓰기를 연습하지 않으면 쓰기 능력이 감퇴한다는 얘기이고, 뇌활동에서 다른 방식과 차이가 보였다는 얘기일 뿐 특별히 해롭다는 증거는 아님. 그리고 논문에서는 “cognitive decline(인지력 저하)” 대신 “cognitive debt(인지 부채)”라는 용어를 쓰는데, 해석에 중요한 시사점임. 비슷한 결과가 다른 연구에서도 나올 수 있다고 보지만, AI/LLM이 뇌에 해롭다는 식의 결론을 내기는 이르다고 생각함. 오히려 인지 부하를 줄여서 에세이쓰기를 더 쉽게 만들어줄 수 있다고도 읽힐 수 있음. 단, 결과물의 질 평가 등 추가 연구가 필요함

    • 또 주의할 점은 여기서 사용한 “AI”가 LLM의 대체어로 쓰였다는 점임. AI는 매우 다양한 것임. 이미지, 비디오, 오디오 생성이 인지저하로 이어진다는 건 상상하기 어렵고, LLM은 오히려 “기억이나 암기를 스스로 할 필요가 없게 하여 지적 게으름”을 유발할 수 있다는 정도로 생각함

    • 이런 효과는 아무렇지 않게 재현된다고 생각함. 최근 들어 LLM을 많이 쓰기 시작한 사람들과 상호작용해 보면 눈에 띄게 IQ가 떨어진다는 느낌임. 예전엔 활발히 토론하던 사람이 이제는 Grok이나 ChatGPT의 답을 확인하지 않으면 얘기를 못 하는 경우를 봄

  • 해당 기사와 헤드라인은 오히려 이전의 더 독창적 원본을 조악하게 반복하고 있음. 실제 연구자들도 언론이 자기 연구를 잘못 해석해 “LLM이 우리를 바보로 만든다” 같은 단어를 쓰지 말아 달라고, FAQ에 명확하게 써놨음. HN 댓글(일부)은 인지적 편향이 실제 자료 확인 없이 정보를 받아들이는 좋은 사례임

    • Reddit 화되는 이야기를 하는 이유가 이해됨. 이런 clickbait 이슈가 계속 올라옴. 특히, 이번 연구는 4개월간 ChatGPT를 4번, 18명이 쓴 것뿐인데 잡음 통제가 안 됨. AI 과다사용이 문제라는 데엔 동의하지만, 이런 연구는 단지 우리가 싫어하는 주제에 clickbait에 불과함

    • 실제 논문을 제대로 읽는 사람이 거의 없다고 느낌. 1~3세션에서 LLM을 쓴 그룹이 4세션에서 LLM 없이 하니 연결성이 줄었고, 모든 그룹이 세션을 거듭할수록 연결성은 높아졌음. 중요한 건 4세션 때도 연결성이 초기(1세션)로 완전히 돌아간 건 아니고 중간 어딘가였음. 즉, 여전히 학습 중이었다는 의미임. Extended Mind라는 철학적 개념이 핵심임. 오히려 LLM 없이 1~3세션을 보낸 그룹이 4세션에서 LLM을 쓰게 되면 뇌가 폭발적으로 활성화됨. 연구 결론의 진짜 포인트는 여기에 있음

    • 개인적으로는 8개월간 ChatGPT로 코딩하면서 점점 머리가 느려진다는 체감을 했음. 연구 결과가 크게 와닿음. 단, 연구를 부정적으로 다루는 새 연구는 앞으로 거의 나오지 않을 거라 예상함. AI에 대한 부정적 여론을 원하지 않는 세력이 사회 전반을 이끌고 있으니 그럴 수밖에 없을 것임

  • 나는 LLM이 글을 써주거나 수정을 맡게 해선 안 된다고 생각함. 피드백이나 아이디어 탐색, 빈틈 찾기엔 쓸 수 있지만, 작성을 스스로 끝까지 해야 함. 너무 쉽게 뇌를 LLM에게 넘겨줄 위험이 있음. 에세이쓰기뿐 아니라, 프로그래밍 문제를 LLM으로 푸는 데 의지하다 보면 진짜 인지 저하가 온다는 걸 느꼈음. 낯선 프로그래밍 에코시스템에서 에러만 계속 복붙하다 보면 문제는 금방 풀리나, 진짜 배움은 줄어듦. 물론 덕분에 시작은 더 쉽고 막히지 않으니, 균형이 필요함. 문제와 직접 씨름하는 힘이 꼭 필요함

    • 나는 반대 경험임. 단순히 에러를 복붙하거나, AI 답을 바로 받아들이기보다 “왜 이게 통할까?”를 계속 질문함. 명령어나 플래그 한 줄 한 줄 뜯어서 설명하게 하고, 완전히 납득될 때만 다음으로 넘어감. 덕분에 직접 탐구하는 만큼 깊게 기억하진 못해도, 더 많은 문제를 더 빠르게 경험하며 학습량을 늘릴 수 있음

    • Firefox에 자동 교정 기능이 생겼을 때 정답을 복기하며 오타 없는 글쓰기를 연습했더니 많이 개선됨(영어가 모국어 아님). LLM도 마찬가지로 더 빠른 학습과 결론에 도달하기 위한 도구라고 생각함. 새로운 프로젝트에서 예전에 했던 설정을 잊었을 때, 예전 위키에 적어놨을 내용을 LLM이 상기시켜 줄 수 있음. LLM을 통해 더 나은 엔지니어가 되기 위한 셀프 체크가 중요함

    • 이게 진짜 문제이지만, LLM을 적당히 활용하면 내 실력과 인접 영역을 빠르게 따라갈 수 있고 사소한 지식의 공백에 막히지 않고 본질적 업무에 집중할 수 있음. 예를 들어 수중 음향 신호처리를 C로 빠르게 구현했으며, 굳이 완벽하게 숙달할 필요 없었던 영역을 실용적으로 빠르게 처리했음. 예전이라면 남의 코드만 주구장창 읽었을 것임

    • LLM에게 글을 쓰도록 시키는 건 게으름이고, 결과도 만족스럽지 못함. 대신 초안을 내가 쓰고, LLM으로 피드백을 받고 맹점을 점검하거나 더 나은 어휘를 찾는 게 좋음

    • LLM 습관을 내비게이션이나 지도앱에 지나치게 의존하는 것과 유사하게 봄. 정말 편리하지만, 공간 기억력이나 의사결정에 필요한 두뇌 영역을 썩히는 부작용이 있음. 한 번 맹신하다 크게 실패한 일도 있었음. 예전엔 종이 지도가 불편했지만 그 대가로 더 많은 상호작용과 여유 시간을 확보했음. 현재는 분쟁 지역을 제외하면 종이 지도는 거의 쓰지 않음

  • 이번 논문처럼 화제가 된 연구임에도 불구하고 방법론에 심각한 한계가 많음. 54명만 3개 그룹으로 나누고, 각 조건별로 9명씩이며, “뇌 재프로그래밍” 같은 주장을 하기엔 턱없이 적은 샘플임. 연구가 보여준 건 AI 지원 에세이 작성 시에만 다른 뇌 패턴이 있다는 것뿐, 영구적 손상은 아님. 도구 사용 땐 뇌활동이 적은 건 계산기 활용 시 암산이 줄어드는 것과 같음. “인지적 손상”이나 “심각한 피해”와 같은 용어도 실제 연구에선 해당 없음. 표면 EEG측정으로도 깊은 뇌변화는 추정 못 함. 저자들도 한계 인정함. “83.3%가 자기 에세이 한 문장도 기억 못함”도 18명 중 15명일 뿐임

  • 일상에서 AI 사용하는 대표적 사례로 납땜, 멀티미터 사용, 회로 짜기, 태양광/배터리 시스템, LoRa 네트워크 구축 등 다양한 실습형 배움을 얘기함. 모든 경우에 이론만이 아니라 실제로 직접 실험하며 배우는 중임. 문제가 생기면 AI로 원인을 파악하고, 여러 번 질문·실험을 반복해 확실히 원리를 이해한다고 함. 유튜브 영상은 취향에 안 맞아서, 텍스트 기반 AI가 오히려 내게 맞는 방식임. 일부러 실수하고 부숴가며 배우는 걸 선호함. 소프트웨어에서 통했던 시행착오 전략을 저렴한 전자공학에도 적용해 효과를 보고 있음

    • 직접 이런 걸 해보는 입장에서, 왜 AI를 택했는지 궁금함. 텍스트로 배우는 건 가장 어려운 방식 중 하나라고 생각함. 잘 만든 영상이 실제 과정과 성공/실패의 기준을 훨씬 잘 보여줌. 다만 좋은 영상을 찾기가 점점 더 어려워지고 있긴 함

    • 나도 LLM 등장 전, 아날로그 신디사이저를 만들며 비슷한 걸 배웠음. 동의하는 건, LLM이 참고한 웹상 텍스트와 똑같은 자료를 나도 참고했음. 뭔가 안 될 때는 실제 장비나 문서를 참고했음. 그동안 LLM 없이도 충분히 배워온 길이 있었고, LLM이 다른 방법보다 꼭 더 우월한 학습 방식이라고 보기는 아직 애매하다고 생각함

    • 실제 물리적인 작업을 해야 배우는 속도가 두뇌 학습 속도에 맞춰지는데, 소프트웨어의 “분위기 코딩(vibe coding)”처럼 너무 빠른 피드백 루프는 진짜 학습엔 오히려 도움이 안 됨. 두뇌가 학습의 과정을 피하게 만듦

    • 수련생이 사부에게 질문하는 식으로 LLM을 쓰고 있다면 아무 문제도 없다고 생각함

    • 비슷하게, 나는 답지 없는 교재를 풀며 막힐 때마다 ChatGPT로 피드백 받고, 힌트를 얻어서 큰 도움을 받고 있음

  • 기사 내용이 AI로 작성된 것처럼 느껴질 정도로 실제 논문을 읽고 그렇게 결론짓긴 어렵다고 봄. 실험은 4개월간 30분도 안 되게, SAT형식 에세이만 썼고, 일부만 AI를 썼음. 이 정도로 한 번에 20분, 한 달에 한 번씩 AI 썼다고 눈에 띄게 머리가 나빠졌다는 결론은 말이 안 됨. 실제 연구에서 드러난 것은, 자신이 직접 만들지 않은 결과물에 애착이나 기억이 적다는 점임. 이건 타인이 만든 작업물도 마찬가지임

    • LLM은 문제 푸는 데 prompt를 오래 조율하면서 사실 출력물에 나도 많이 관여하는 경우가 많음
  • AI를 활용하는 방식이 배움의 영향에 매우 밀접하다고 봄. 나는 오히려 AI에 수시로 질문하고 논리적으로 따지면서 평소보다 훨씬 더 깊게 사고하게 됨. 예를 들어, 문서가 부족한 기능을 발견하면 AI로 코드 흐름을 파악하고, 명명법 개선, 구조 개조, 문서화 등 다양한 선택지에 대해 계속 AI와 토론함. 정보 탐색 영역만 LLM이 월등히 빠르니까 내가 좀 덜 수고할 뿐, 오히려 더 깊게 고민하게 만듦. 물론 mermaid 같은 일부 영역을 건너뛴 건 있지만, LLM 덕분에 실제로 작업이 가능했고 그렇지 않았다면 시시한 업무만 하고 있었을 걸로 생각함

  • 이번 논문과 기사들이 너무 자극적으로 해석되어서 연구팀이 FAQ까지 따로 올릴 정도임. 논문 저자가 “LLM이 바보로 만든다” 같은 표현은 쓰지 말아달라고 반복해서 요청함

    • 표본 수가 너무 적은 만큼 이런 연구가 실제로 명확히 뭔가를 보여준다고 말하긴 어려움. 민감한 주제라 표현과 프레이밍에 신중하지 않으면 쉽게 금기시됨. 따라서 이와 같은 연구는 앞으로도 잘 안 나올 듯함
  • 기술적 신경망 측정 결과만으로 “장기적 인지 저하”를 논하는 건 과장임. 예를 들어 “LLM 사용자의 83%가 방금 쓴 에세이를 한 문장도 외우지 못했다”는 결과도, 자기 손을 안 거친 글은 기억에 남지 않는다는 너무 당연한 얘기임. 애초에 AI가 대신 써주었으니 본인 생각을 거치지 않아 당연하게 느껴짐

    • 나도 글쓰기를 자주 하지만, 정작 내용 한 줄을 따로 외우고 있지는 않음. LLM을 편집툴로 써서 내 의도를 더 잘 살리는 방법이나, 더 나은 어휘 추천에 활용함. 출력물을 무작정 믿진 않고, 글의 중요도에 따라 문장별로 꼼꼼히 검토함. LLM에게 “주제 X에 대한 에세이 작성”만 맡기고 단 한 번도 안 열어보는 건 비현실적임.