▲GN⁺ 2023-09-27 | parent | ★ favorite | on: Google이 Quora의 (틀린) ChatGPT 답변을 정답으로 선택(twitter.com/8teapi)Hacker News 의견 Google의 "답변" 기능은 신뢰성이 떨어진다는 비판을 받았으며, Amiga 플로피 디스크의 용량에 대한 잘못된 정보를 예로 들었다. Quora가 AI 생성 콘텐츠를 사용하여 Google에서 높은 순위를 차지하고 클릭을 유도하는 것으로 의심받고 있다. Google이 이에 대해 신경 쓰지 않는 것에 대한 놀라움, 그들의 자동화를 사용하여 검색 결과 순위를 조작하는 정책에도 불구하고. "후진실" 세계에서 오보의 확산에 대한 우려, AI가 이 문제를 악화시킬 가능성이 있다. 이미 사람이 작성한 답변이 있는 질문에 대해 Quora가 자동으로 답변을 생성하는 이유에 대한 혼란. 인터넷이 스팸과 악의적인 선전으로 점점 더 가득 찰 것으로 예상되며, 신뢰할 수 있는 정보를 찾는 것은 초인적인 작업이 될 것이다. 봇 계정으로 가득 찬 Reddit 스레드의 관찰, 자동화된 콘텐츠의 증가를 시사한다. Quora가 "ChatGPT" 통합을 어떻게 구성했는지에 대한 의문, 그들이 API를 통해 GPT3.5 또는 GPT4를 사용할 수 있다는 제안이 있다. Quora와 StackOverflow와 같은 플랫폼이 답변을 찾는 사람들을 과대평가하고 정기적인 답변자 커뮤니티를 과소평가할 수 있다는 제안이 있다. Kagi와 DDG와 같은 다른 검색 엔진도 동일한 Quora 스레드에 링크하는 것에 대해 비판받고 있다. 제안된 잠재적 해결책은 AI 콘텐츠에 HTML 래퍼 또는 속성을 레이블링하여 검색 엔진이 다르게 색인하도록 하는 것이다. 이 상황은 "enshitification"으로 언급되며, 이는 온라인에서 사용할 수 있는 정보의 품질이 저하되고 있다는 것을 시사한다.
Hacker News 의견