GN⁺: Google이 Quora의 (틀린) ChatGPT 답변을 정답으로 선택
(twitter.com/8teapi)- 구글링 하면 Quora 질문과 답변이 자주 노출 됨
- Quora는 ChatGPT를 이용하여 생성한 답변을 노출하고 있음
- Quora 사이트에서 ChatGPT가 만들어낸 Hallucination을 구글이 가장 높은 확율의 정답으로 선택함
- 이제 ChatGPT Hallucination이 정식 구글의 답변이 됨
- 사용한 예제 질문과 이에 대한 ChatGPT의 틀린 답
- Q: "계란을 녹일 수 있나요? (Can you melt Eggs)"
- A: "네, 녹일 수 있어요. 계란을 녹이는 가장 일반적인 방법은 스토브나 전자레인지를 사용하여 가열하는 것입니다."
- "Vicious Self-Degradation(악의적인 자기 저하)"
Hacker News 의견
- Google의 "답변" 기능은 신뢰성이 떨어진다는 비판을 받았으며, Amiga 플로피 디스크의 용량에 대한 잘못된 정보를 예로 들었다.
- Quora가 AI 생성 콘텐츠를 사용하여 Google에서 높은 순위를 차지하고 클릭을 유도하는 것으로 의심받고 있다.
- Google이 이에 대해 신경 쓰지 않는 것에 대한 놀라움, 그들의 자동화를 사용하여 검색 결과 순위를 조작하는 정책에도 불구하고.
- "후진실" 세계에서 오보의 확산에 대한 우려, AI가 이 문제를 악화시킬 가능성이 있다.
- 이미 사람이 작성한 답변이 있는 질문에 대해 Quora가 자동으로 답변을 생성하는 이유에 대한 혼란.
- 인터넷이 스팸과 악의적인 선전으로 점점 더 가득 찰 것으로 예상되며, 신뢰할 수 있는 정보를 찾는 것은 초인적인 작업이 될 것이다.
- 봇 계정으로 가득 찬 Reddit 스레드의 관찰, 자동화된 콘텐츠의 증가를 시사한다.
- Quora가 "ChatGPT" 통합을 어떻게 구성했는지에 대한 의문, 그들이 API를 통해 GPT3.5 또는 GPT4를 사용할 수 있다는 제안이 있다.
- Quora와 StackOverflow와 같은 플랫폼이 답변을 찾는 사람들을 과대평가하고 정기적인 답변자 커뮤니티를 과소평가할 수 있다는 제안이 있다.
- Kagi와 DDG와 같은 다른 검색 엔진도 동일한 Quora 스레드에 링크하는 것에 대해 비판받고 있다.
- 제안된 잠재적 해결책은 AI 콘텐츠에 HTML 래퍼 또는 속성을 레이블링하여 검색 엔진이 다르게 색인하도록 하는 것이다.
- 이 상황은 "enshitification"으로 언급되며, 이는 온라인에서 사용할 수 있는 정보의 품질이 저하되고 있다는 것을 시사한다.