▲GN⁺ 2024-12-28 | parent | ★ favorite | on: 현재 AI는 막다른 길인가?(bcs.org)Hacker News 의견 1990년대 중반부터 신경망의 발전을 지켜보았으며, 신경망의 각 단계가 막다른 길에 도달했다고 관찰함. 이는 수학적 접근 방식이 직관적 이해를 방해하기 때문임. LLM이 의미 검색을 쉽게 만들어 흥미로움. AI 시스템의 기능과 의미가 연결되지 않음. 이는 책임 있는 사용을 방해함. 대기업들은 LLM을 내부 업무에 제한적으로 사용하며, 고객 서비스에 활용함. LLM의 오류는 고객에게 전가되며, AI 산업에서 책임 회피가 만연함. Tesla의 자율주행은 극단적인 예로, 사고에 대한 책임을 지지 않음. AI 산업은 법적, 정치적으로 책임을 회피하기 위해 노력 중임. 현재 AI 시스템의 확장 가능성을 예측할 수 없음. 인간 뇌와 비교할 때 신경 연결 수가 매우 적음. 오늘날의 AI 시스템은 갈색 쥐의 뇌와 비슷한 신경 연결 수를 가짐. 현재 AI 시스템은 신뢰할 수 없음. LLM 기반 AI는 소프트웨어 개발 관점에서 결함이 있으며, 중요한 응용 프로그램에 적합하지 않음. LLM이 재정 관리나 스마트 홈 제어를 맡길 수 있는지 의문임. 인간과 자율 시스템에 대한 기대가 다름. 인간은 중요한 작업에서도 실수를 하며, AI 시스템도 마찬가지임. 인간 전문가의 의견 일치가 낮은 경우도 있음. LLM이 비용 대비 효율적이라면 사용하지 않을 이유가 없음. AI를 적극적으로 사용 중이며, 개인 프로젝트에서 큰 도움을 받음. Wikipedia와 유사하게 AI의 유용성을 부정하는 심리가 존재함. 데이터 확장이 더 이상 큰 보상을 주지 않음. LLM은 AGI로 가는 길이 아님. LLM은 API 호출 생성 등에서 유용하지만, 대규모 프로젝트에 사용하기에는 위험함. 자유로운 브레인스토밍에서는 더 유용할 수 있음. AI가 지능을 대표하는지에 대한 논의가 많음. 인간의 뇌도 신뢰할 수 없으며, 사이버 보안에서 LLM의 적합성을 논의함.
Hacker News 의견
1990년대 중반부터 신경망의 발전을 지켜보았으며, 신경망의 각 단계가 막다른 길에 도달했다고 관찰함. 이는 수학적 접근 방식이 직관적 이해를 방해하기 때문임. LLM이 의미 검색을 쉽게 만들어 흥미로움.
현재 AI 시스템의 확장 가능성을 예측할 수 없음. 인간 뇌와 비교할 때 신경 연결 수가 매우 적음.
LLM 기반 AI는 소프트웨어 개발 관점에서 결함이 있으며, 중요한 응용 프로그램에 적합하지 않음.
인간은 중요한 작업에서도 실수를 하며, AI 시스템도 마찬가지임.
AI를 적극적으로 사용 중이며, 개인 프로젝트에서 큰 도움을 받음.
데이터 확장이 더 이상 큰 보상을 주지 않음. LLM은 AGI로 가는 길이 아님.
AI가 지능을 대표하는지에 대한 논의가 많음. 인간의 뇌도 신뢰할 수 없으며, 사이버 보안에서 LLM의 적합성을 논의함.