Hacker News 의견
  • 1990년대 중반부터 신경망의 발전을 지켜보았으며, 신경망의 각 단계가 막다른 길에 도달했다고 관찰함. 이는 수학적 접근 방식이 직관적 이해를 방해하기 때문임. LLM이 의미 검색을 쉽게 만들어 흥미로움.

    • AI 시스템의 기능과 의미가 연결되지 않음. 이는 책임 있는 사용을 방해함.
    • 대기업들은 LLM을 내부 업무에 제한적으로 사용하며, 고객 서비스에 활용함.
    • LLM의 오류는 고객에게 전가되며, AI 산업에서 책임 회피가 만연함.
    • Tesla의 자율주행은 극단적인 예로, 사고에 대한 책임을 지지 않음.
    • AI 산업은 법적, 정치적으로 책임을 회피하기 위해 노력 중임.
  • 현재 AI 시스템의 확장 가능성을 예측할 수 없음. 인간 뇌와 비교할 때 신경 연결 수가 매우 적음.

    • 오늘날의 AI 시스템은 갈색 쥐의 뇌와 비슷한 신경 연결 수를 가짐.
    • 현재 AI 시스템은 신뢰할 수 없음.
  • LLM 기반 AI는 소프트웨어 개발 관점에서 결함이 있으며, 중요한 응용 프로그램에 적합하지 않음.

    • LLM이 재정 관리나 스마트 홈 제어를 맡길 수 있는지 의문임.
    • 인간과 자율 시스템에 대한 기대가 다름.
  • 인간은 중요한 작업에서도 실수를 하며, AI 시스템도 마찬가지임.

    • 인간 전문가의 의견 일치가 낮은 경우도 있음.
    • LLM이 비용 대비 효율적이라면 사용하지 않을 이유가 없음.
  • AI를 적극적으로 사용 중이며, 개인 프로젝트에서 큰 도움을 받음.

    • Wikipedia와 유사하게 AI의 유용성을 부정하는 심리가 존재함.
  • 데이터 확장이 더 이상 큰 보상을 주지 않음. LLM은 AGI로 가는 길이 아님.

    • LLM은 API 호출 생성 등에서 유용하지만, 대규모 프로젝트에 사용하기에는 위험함.
    • 자유로운 브레인스토밍에서는 더 유용할 수 있음.
  • AI가 지능을 대표하는지에 대한 논의가 많음. 인간의 뇌도 신뢰할 수 없으며, 사이버 보안에서 LLM의 적합성을 논의함.