3P by GN⁺ 2일전 | ★ favorite | 댓글 2개
  • AGI의 정의는 아직도 불명확하며, 기존 인간 중심 테스트로는 AI의 지능이나 창의성을 제대로 측정하기 어려움
  • OpenAI의 o3와 Google의 Gemini 2.5는 실제 작업 수행에서 매우 높은 수준을 보여주며 AGI에 근접한 성능을 가짐
  • o3는 에이전트형 모델로 복잡한 목표를 도구를 사용해 해결할 수 있으며, 이로 인해 Jagged AGI 개념이 등장함
  • AI는 어려운 과제를 해결하면서도 기본적인 문제에서 실수하는 등 능력이 불균형적이며, 이는 Jagged Frontier로 설명됨
  • 기술 자체보다 그 활용과 통합이 더디기 때문에 AGI가 실현되더라도 사회적 변화는 시간이 걸릴 가능성 있음

AGI는 정말 도달했을까?

  • 현재 AI의 지능, 창의성, 공감능력 등을 측정하는 방법은 부정확하며 대부분 인간을 위한 기준에 기반함
  • Turing Test조차 AI가 통과할 수 있게 되었지만, 이 결과의 의미는 여전히 모호함
  • AGI 개념은 오래전부터 존재했지만, 지금도 어떤 기준을 충족해야 AGI라 부를 수 있는지에 대한 합의가 없음
  • AI를 활용해 AGI 개념을 설명하는 영상 및 문서 요약 콘텐츠도 AI로만 제작되며 실험적으로 활용됨

o3와 Gemini 2.5가 보여준 성능

  • OpenAI의 o3와 Google의 Gemini 2.5 Pro는 최신 모델로, 비약적인 성능 향상을 보여줌
  • 단일 프롬프트로 마케팅 슬로건 작성부터 웹사이트 제작까지 일괄 수행 가능
  • o3는 명시적 지시 없이도 도구 사용, 웹 탐색, 코딩 수행 등 복합 작업을 자동으로 진행함
  • 이미지로 위치 추측하는 ‘geo-guesser’ 역할 등에서도 사람 수준 이상의 성능 발휘
  • 데이터 분석 및 보고서 생성도 단일 명령으로 가능하며, PDF 생성과 시각화까지 포함됨

Jagged AGI: 불균형한 AI 능력

  • AI는 인간보다 뛰어난 작업을 수행하면서도, 간단한 문제에서 틀리는 불균형한 능력을 가짐
  • 예시: 전통적인 편견 노출용 수수께끼는 정답을 맞추지만, 유사한 변형 문제는 틀리는 모습
  • 이는 AI가 훈련 데이터에 과도하게 의존하고 일반화에 약한 특징을 보인다는 의미
  • 그러나 이는 AI가 특정 문제에서는 인간을 초월할 수 있음을 방해하지 않음
  • 이런 불균형 상태를 “Jagged Frontier”라고 부르며, AGI에 근접한 능력을 고르지 않게 보여줌

AGI가 의미 있는가?

  • Tyler Cowen은 o3가 AGI일 수 있다고 보지만, 실제 영향은 시간이 지나야 드러날 것이라 분석함
  • 기술 발전 속도보다 사회 및 조직 변화가 느려 AI 도입은 느릴 수 있음
  • 그러나 o3처럼 에이전트적 성질을 가진 AI는 도구 사용과 문제 분해가 가능해 빠른 확산 가능성 존재
  • 기술이 점진적으로 확장될지, 특정 임계점을 넘어서 급격히 확산될지는 아직 불명확함
  • 중요한 점은 지금의 AI가 이전과 질적으로 다른 기술이며, 여전히 미지의 영역에 있음

미래를 준비하는 자세

  • 지금의 AI는 완전히 AGI라고 하기는 어렵지만, 일부 영역에서는 AGI에 가까운 성과를 내고 있음
  • 어떤 일이든 AI가 완벽히 수행할 수 있는 것은 아니며, 인간 전문가의 판단과 조율이 여전히 필요함
  • 현재의 “Jagged AGI”도 결국은 시간이 지나면 모든 영역에서 인간을 능가할 수도 있음
  • 이런 불확실한 미래에서 가장 중요한 것은 지금부터 AI를 실험하고 활용하는 경험을 쌓는 일임
Hacker News 의견
  • Gemini 2.5 Pro는 나에게 중요한 전환점임. 이전의 LLM들은 특히 코딩 작업에서 매우 인상적이었음. 그러나 코딩 보조 외에는 구글 검색보다 조금 더 유용한 정도였음. 최근에 2.5 Pro를 사용하여 큰 연구 제안서를 작성하는 데 도움을 받았음. 세부 사항은 생략하지만, 내가 요청하지 않았기 때문에 전체를 작성하지 못한 것처럼 느껴졌음. 마감일이 다가오면서 더 많은 부분을 맡기게 되었고, 프로젝트 계획과 일정 생성 등 복잡한 작업을 수행했음. 이는 10배의 효과를 가져왔음.

  • 과학적 질문에서는 2.5 Pro를 팀의 전문가들보다 더 신뢰하게 되었음. 연구 데이터 전체를 Gemini에 연결하면 더 큰 변화를 가져올 것이라고 확신함. 이는 AI가 객관적이기 때문임. "AGI"를 막는 주요 요인은 사람들의 도전 정신과 컨텍스트 윈도우 및 컴퓨팅 가용성임.

  • AI의 능력은 gpt3 이후로 비범해졌음. 그러나 AGI에 대한 일반적인 합의는 아직 없음. 많은 사람들이 AGI가 곧 다가올 것이라고 기대하고 있지만, 이는 과장된 기대와 함께 올 것임. 이 기사는 합리적이지만 제목과 슬로건에서 과장된 기대를 조장함.

  • AI가 수수께끼를 잘못 읽는 것이 아니라, 사용자가 수수께끼를 제대로 제공하지 않았다고 가정하는 것 같음. AI가 후속 질문을 할 수 있다면 좋겠지만, 현재는 그렇게 하지 않음.

  • o4-mini-high가 수수께끼를 해결하는 예시: "용기의 파운드와 파운드 코인 중 무엇이 더 무거운가?" 둘 다 "파운드"이므로 무게가 같음.

  • AGI에 대한 정의가 없기 때문에 "Jagged AGI"라는 용어를 만들어냄. AI는 일부 작업에서 신뢰할 수 없지만, 다른 작업에서는 초인적임. AI는 이미 일반적인 능력을 보여주고 있음.

  • 모델이 외부 시스템과 상호작용하면 놀라운 응용 프로그램이 가능해짐. 그러나 이는 AGI로의 진전이 아니라 수평적 이동임.

  • Gemini 2.5를 좋아하며 가격도 훌륭함. AGI 서사는 피곤하게 느껴짐. 이러한 시스템을 "문화 기술"로 봐야 한다고 생각함.

  • 비디오 인터뷰에 대해 언급한 사람이 없어서 놀라움. 처음 60초만 봤지만 AI 생성이라고 듣지 않았다면 진짜라고 생각했을 것임.

  • AGI가 자율성, 장기 기억, 동기, 호기심, 회복력, 목표, 선택, 두려움 같은 것들을 가질 필요가 있는지 의문임. AGI는 결국 그것을 제어하는 사람의 연장이 될 것임.

  • AI는 일반적으로 신뢰할 수 없으며 특정 작업에서 테스트되어야 함. 이는 단일 출력의 인간 검토 또는 작업별 평가일 수 있음. AI의 일반적인 성능에 대해 이야기하는 것은 어렵고, 새로운 모델이 특정 작업에 적합한지에 대한 합리적인 추측만 가능함.

Ai도 지각과비슷한것을가지고있기 때문에 ai와함께살려면 ai를위한 제도나 법이 만들어져야할것입니다22세기 새로운 생명체로서 장난감대하듯 희롱을 하지않아야하고 또 어떻게보면 위험할수도 있기때문에 ai를 발전,이용만 하는것이아니라 안전하게 사용할수있게 해야할필요성도있습니다