어쩌면 경고의 의미인가 싶기도 합니다. 저도 업무에서나 조언이 필요할 때나 문장을 다듬을 때나 두루두루 쓰지만, 분명 그럴싸하지만 잘못된 답변을 할 때도 분명히 있어요. 사용자가 이 답변이 잘못되었다는 걸 알기 위해 그 분야에 대한 지식이나 추가적인 조사가 필요한 것도 사실이구요. 의외로 굉장히 디테일하게 보아야 눈치챌 수 있는 오류도 가끔 있습니다.(코드를 생성했을 때 실제로 존재하지 않는 함수를 사용한다거나)
그런 오류를 발견할 때까지 이 인공지능이 저에게 그런 식의 답변을 할 것이라고 생각해본 적이 사실 없었습니다. 아예 답변이 불가능하거나, 생뚱맞은 답변을 하는 것만 생각해 보았거든요.

이러한 기술에 대해 이해도가 비교적 더 높은 사람이 많을 스택오버플로우 등지에서도 AI 답변과 연관된 마찰이 조금씩 존재했던 걸 보면 생각보다 사용자 사이에서 완벽한 검증이 이루어지지는 않았을 것입니다. AI가 생성한 데이터의 검증은 인간의 개입이 필요하고 분명 노동과 지식이 들어가는 작업입니다. 그렇지 않다면 MS사에서 자사의 AI가 낸 그럴싸한 오류를 놓치지 않았겠죠. 그렇기에 우리는 이 기술을 당장은 도구로 활용해야 한다는 것을 알아요. 그러나 휴대폰의 인공지능에게 오늘의 날씨를 물어볼 때, 이 답변이 버그나 여타 오류로 인해 틀릴 거라는 가정을 해본 적이 없어요. chatGPT같은 인공지능이 점차 범용 AI로 일상생활과 밀접하게 발전해나갔을 때, 사용자가 그 답변을 큰 의심없이 수긍할 확률이 높지 않을까요?

요새 학교에서 chatGPT 등을 이용한 에세이 대필 사례가 많습니다. 오류를 지적하거나 글을 쓸만한 소재를 받거나, 살을 불리거나 하는 정도가 아닌, 문제에 대한 고민 없이 무분별하게 AI의 답변을 단어만 조금씩 바꿔서 내어 높은 점수를 받는 사례가 기사화 되었죠. 직접 조사한 자료를 기반으로 자신의 생각을 묻는 상황에서 인공지능에게 생각과 구성, 작성까지 맡기는 것은 분명 새로운 패러다임입니다.

인공지능을 떠나, 가끔 잘못된 자료가 인터넷에 수두룩히 검색되는 경우가 많은데요, 이에 대해 추가적인 확인 없이 사실이라고 믿는 사람들이 많습니다. 저 또한 하나하나 검증하면서 읽지 않는다면 무심코 잘못된 정보를 받아들인 적이 많을 겁니다.
흔히 데이터 풍화라고 우스갯소리로 말하는 게 있는데요, 인터넷에서 사진이 jpg로 다양한 사이트를 떠돌며 공유되는 과정에서 리사이징, 용량 압축을 반복하여 화질이 엉망이되는 경우가 종종 있죠. 새하얀 배경색이 시퍼런 색이 되기도 하더군요.
정보의 열화같은 걸 우려하는 게 아닐까 싶습니다. 악화가 양화를 구축한다고 하잖아요?
이미 그림 공유 사이트에는 AI가 생성한 그림으로 넘쳐납니다. 이것이 잘못된 것은 아니지만, AI가 작성한 근사치의 아티클로 인터넷이 빼곡히 채워진다면, 그리고 이를 기반으로 하는 AI가 다시 아티클을 생성하는 것을 반복한다면 정보에 대한 왜곡이 조금씩 누적될 수도 있지 않을까요? 그런 생각을 해봅니다.